Introducción:
Características básicas de los datos
económicos de series temporales
Breve Repaso de Tª de la Probabilidad
•
Espacio Muestral: Ω  { } , el conjunto de posibles resultados de un experimento aleatorio
•
Resultado:
•
Suceso:
•
Algebra:
•
Variable Aletoria:
•
Conjunto de Estados: S, el espacio que contiene todos los posibles valores de una variable aleatoria.
Las elecciones mas comunes son los numeros naturales N, los reales R, vectores de dimension k Rk,
los reales positivos R+, etc
•
Probabilidad: P : F  [ 0 ,1]
•
Distribución:  : B  [ 0 ,1], donde B  { A : A  R } es un Borel Set (conjunto
de la recta real que puede expresarse como uniones o interseccion de intervalos)

, un elemento del Espacio Muestral
E  
, un subconjunto del Espacio Muestral
F  E : E  }
, colección de sucesos que nos interesa estudiar
Z :   S , una función del Espacio Muestral al conjunto de estados S
Breve Repaso (cont)
•Vector de Variables Aleatorias: Z= (Z1, Z2 , ..., Zk) es un vector de dimensión k donde cada
componente es una variable aleatoria
•Sucesión de Variables Aleatorias: Z= (Z1, Z2 , ..., Zn) es una sucesion de n variables aleatorias
Si interpretamos t=1, ..., n como momentos equidistantes en el tiempo, Zt puede interpretarse como el
resultado de un experimento aleatorio en el momento de tiempo t . Por ejemplo la sucesión de
variables aleatorias podria ser los precios de las acciones de Toyota Zt en n dias sucesivos.
Un aspecto NUEVO, comparado con la situación de una sola variable aleatoria, es que ahora podemos
hablar de la estructura de DEPENDENCIA dentro del vector de variables aleatorias.
•Función de Distribución FZ de Z : Es la colección de probabilidades
FZ ( z )  P ( Z 1  z 1 ,..., Z n  z n )
 P ({  : Z 1 (  )  z 1 ,..., Z n (  )  z n })
Procesos Estocásticos
Supongamos que el tipo de cambio €/$ en cada instante fijo de
tiempo t entre las 5p.m y las 6p.m. de esta tarde es aleatorio.
Entonces podemos interpretarlo como una realización Zt() de la
variable aleatoria Zt. . Observamos Zt(), 5<t<6. Si quisieramos
hacer una predicción a las 6 p.m. sobre el tipo de cambio Z7() a
las 7 p.m. es razonable considerar TODA la evolución de Zt()
entre las 5 y las 6 p.m. El modelo matematico que describe esta
evolución se le llama proceso estocástico.
Procesos Estocásticos (cont)
Un proceso estocástico es una colección-sucesión de variables aleatorias
indexadas por el tiempo
( Z t , t  T )  ( Z t (  ), t  T ,    )
Definidas en un espacio muestral .
Supongamos que
(1) Fijamos t
(2) Fijamos

Z t ( ),
Z t :   R Esto es una variable aleatoria.
Z : T  R
Es una realización o trayectoria del
Proceso estocástico.
Cambianos el indice temporal podemos generar varias variables aleatorias:
Z t1 ( ), Z t 2 ( ),....... Z t n ( )
t1
t2
tn
z , z ,.... z
Una realización es:
La colección-sucesión de variables aleatorias se le llama PROCESO ESTOCATISCO
Una realización del proceso estocástico se le llama SERIE TEMPORAL
Ejemplos de procesos estocásticos
E1: Sea el conjunto indice T={1, 2, 3} y sea el espacio muestral () el formado por los
resultados de lanzar un dado:
1, 2, 3, ,4 ,5, 6}
Define
Z(t, )= t + [valor del dado]2 t
Entonces para un  particular, digamos 3={3}, la realización o trayectoria es (10, 20,
30).
Q1: Dibuja todas las realizaciones de este proceso estocástico.
E2: Un Movimiento Browniano B=(Bt, t [0, infty]):
• Comienza en cero: Bo=0
• Tiene incrementos independientes y estacionarios
• Para cada t>0, Bt sigue una distribución N(0, t)
• Tiene trayectorias continuas: “no saltos”.
Distribución de un Proceso Estocástico
En analogía con las variables aleatorias queremos introducir caracteristicas no aletorias
de los procesos estocásticos tales como su distribución, su esperanza, etc, y describir su
estructura de dependencia. Esta es una tarea mucho más complicada que en el caso de
vectores de variables aleatorias. De hecho un proceso estocástico no-trivial Z=(Zt, t  T)
con un conjunto indice T es un objeto de dimension infinita en el sentido de que se
puede entender como una colección infinita de variables aleatorias Zt, t  T. Ya que los
valores de Z son funciones en T, la distribucón de Z deberia ser definida sobre
subconjuntos de un cierto “espacio de funciones”, i.e.
P(X  A), A  F,
Donde F es una colección apropiada de subconjunto de este espacio de funciones. Este
enfoque es posible, pero requiere matematicas muy avanzadas. En este curso
intentaremos algo mucho mas simple.
Las distribuciones finito-dimensionales (fidis) de un proceso estocástico Z son las
distribuciones de los vectores finito dimensionales
(Zt1,..., Ztn),
t1, ..., tn T,
para todas las posibles elecciones de t1, ..., tn  T y para cada n  1.
Necesitamos hacer dos supuestos:
Al igual que en la Econometría básica trabajábamos con dos
los supuestos de i.i.d. (idénticamente distribuido e
independiente), en la Econometría de Series Temporales nos
hace faltan dos supuestos equivalentes:
• Estacionariedad (substituye al supuesto de identicamente
distribuido)
• Ergodicidad (substituye al supuesto de independencia)
Estacionareidad
Considera la probabilidad conjunta de un conjunto de variables
aleatorias
F ( z t1 , z t 2 ,..... z t n )  P ( Z t1  z t1 , Z t 2  z t 2 ,... Z t n  z t n )
Proceso estacionario de 1st orden si
F ( z t1 )  F ( z t1  k )
para todo t1 , k
Proceso estacionario de 2nd orden si
F ( z t1 , z t 2 )  F ( z t1  k , z t 2  k )
para todo t1 , t 2 , k
Proceso estacionario de orden n si
F ( z t1 ..... z t n )  F ( z t1  k ..... z t n  k )
para todo t1 , t n , k
Definición.
Un proceso es estrictamente (o en sentido fuerte) estacionario si es
estacionario de orden n para cada n.
Momentos
E (Z t )   t 

Z t f ( z t ) dz t
2
2
Var ( Z t )    E ( Z t   t ) 
t

( Z t   t ) f ( z t ) dz t
Cov ( Z t , Z t )  E [( Z t   t )( Z t   t )]
1
2
1
1
2
2
 ( t1 , t 2 ) 
cov( Z t , Z t )
1
2

2
t1

2
t2
2
Para procesos estrictamente
Momentos (cont)  t  
estacionarios:
 t2   2
porque
F ( z t1 )  F ( z t1  k )   t1   t1  k  
asumiendo que
E( Zt )  
y
E (Z t )  
2
F ( z t1 , z t 2 )  F ( z t1  k , z t 2  k ) 
cov( z t1 , z t 2 )  cov( z t1  k , z t 2  k )   k
La correlación entre dos variables aleatorias depende SOLAMENTE
de su diferencia temporal.
Estacionareidad
Un proceso se dice que
es estacionarioDébil
debil de orden n si todos sus
momentos conjuntos de orden n existen y son invariantes en el
tiempo.
Procesos Estacionarios en Covarianzas (de 2nd orden):
• Esperanza constante
• Varianza constante
• La función de covarianza depende solo de la diferencia
temporal entre las variables
Estacionariedad Fuerte:
F (Yt , Yt 1 , Yt  2 ,....)  F (Yt  j , Yt  j 1 , Yt  j  2 ,.....)
Ergodicidad
Un proceso estacionario en covarianzas es ergodico en la media
si
p lim z  E ( Z t )  
Una condición suficiente para ergodicidad en la media es
k  0
cuando
k  
Ergodicidad para los segundos momentos
Una condición suficiente para ergodicidad en los segundos
momentos

k  
k
Ergodicidad bajo Gausanidad
Si Z t }
es un proceso gausiano estacionario,

k  
k
es una condición suficiente para asegurar ergodicidad en todos
los momentos
Funciones de Autocovarianza y de Autocorrelación
Para un proceso estacionario en covarianzas:
E (Zt )  
Var ( Z t )  
2
Cov ( Z t , Z s )  
k 
st
cov( Z t , Z t  k )
var( Z t )

var( Z t  k )
 k : función
k

2
de autocovari

k
0
anza
 :k  R
 k : función
de autocorrel ación (ACF)
 : k  [  1,1]
Propiedades de la función de autocorrelación
1.Si  0  var( Z t ) entonces
2.Como  k es un coeficient
0  1
e de correlació
n,
k  1   k   0
3. 
k
  k
 k   k
ya que  k  E ( Z t  k   )( Z ( t  k )  k   ) 
 E ( Z t  k   )( Z t   )    k
Funcion de Autocorrelación Parcial (o correlación
condicional)
Esta función mide la correlación entre dos variable separadas k periodos
cuando la dependencia lineal en el medio de esos periodos
(entre t y t+k ) es eliminada.
Sean Z t y Z t  k dos variables
la PACF
viene
Motivación
aleatorias
,
dada por  ( Z t , Z t  k | Z t  1 ,...... Z t  k 1 )
Piensa en el modelo de regresión lineal
(asume E(Z)=0 sin perdida de generalidad)
Z t  k   k 1 Z t  k  1   k 2 Z t  k  2 ......   kk Z t  e t  k
donde e t  k esta incorrleac
(1) multiplica
ionada con Z t  k  j
j1
por Z t  k  j
Z t  k  j Z t  k   k 1 Z t  k  1 Z t  k  j   k 2 Z t  k  2 Z t  k  j ......   kk Z t Z t  k  j  e t  k Z t  k  j
( 2 ) toma esperanzas
 j   k 1
j 1
  k 2
j2
......   kk 
jk
Dividiendo por la varianza del proceso:
 j   k 1  j 1   k 2  j  2 ......   kk 
jk
j  1, 2 ,... k
 1   k 1  0  .......   kk  k 1
 2   k 1  1  .......   kk  k  2
Ecuaciones de
Yule-Walker

 k   k 1  k 1  .......   kk  0
k  1
k  2
 1   11  0   11   1
 1   21  0   22  1
 2   21  1   22  0
k  3
  22 
 1   31  0   32  1   33  2
 2   31  1   32  0   33  1
 3   31  2   32  1   33  0
1
1
1
2
1
1
1
1
1
1
  33 
1
1
1
2
 2 1  3
1
1
1
2
1
1
 2 1
1
Ejemplos de Procesos Estocásticos
E4:
Yt
si t es par
Yt+1
si t es impar
Zt=
donde Yt es una serie estacionaria. Es Zt estacionaria debil?
E5: Defina el proceso
St = X1+ ... + Xn ,
donde Xi es iid (0, 2). Muestra que para h>0
Cov (St+h, St) = t 2,
y por lo tanto St no es estacionario debil.
Ejemplos de Procesos Estocásticos (cont)
E6: Procesos RUIDO BLANCO
Una secuencia de variables
a t } : E ( a t )   a (normalmen
te  a  0 )
Var ( a t )   a
2
Cov ( a t , a t  k )  0 para k  0
Autocovari
k
  a2
 
0
1
k  
0
 kk
1
 
0
anza y autocorrel ación
k 0
k 0
k 0
k 0
k 0
k 0
k
....
1
2
3
4
k
Como vamos a estimar los momentos poblaciones de las
series temporales????
Utilizaremos el metodo de analogia tan usado en
Econometria I:
•Momentos poblaciones se estiman via momentos
muestrales.
•Asumiendo estacionareidad y ergodicidad estos
estimadores seran consistentes.
Donde Estamos?
Considera el Problema de la Prediccion como motivación:
Predecir Zt+1 dado el conjunto de información It en el tiempo t.
 2
Min E [ Z t 1  Z t 1 ]

Solución : Z t 1  E [ Z t 1 | I t ]
La esperanza condicional puede ser modelada en una forma
parametrica o en una forma no-parametrica. En este curso
elegiremos la primera. Los modelos parametricos pueden ser
lineales o no-lineales. En este curso elegiremos los modelos lineales.
Resumiendo los modelos que vamos a estudiar en este curso son ing
modelos parametricos y lineales
Apendice I: Transformaciones
(vease el conjunto de notas extra)
• Objetivo: Tratar con procesos mas manejables
•Transformación logaritimica reduce cierto tipo de
heterocedasticidad. Si asumimos que
t=E(Xt) y V(Xt) = k 2t,
se puede demostrar (por el metodo delta) que la varianza del
log es aproximadamente constante:
'
2
2
Var ( f ( Z ))  f (  ) Var ( Z )  Var (log( Z t )  (1 /  t ) Var ( Z t )  k
• Tomar dieferencias elimina la tendencia (no muy
informativo sobre la naturaleza de la tendencia)
• Diferencias del Log = Tasa de Crecimiento
log( Z t )  log( Z t  1 )  log(
Zt
Z t 1
)  log( 1 
Z t  Z t 1
Z t  Z t 1
)
Z t 1
Z t 1
Apendice II: Analisis Grafico
• Objetivo: Descubrir caracteristicas basicas de los datos
• Realice graficos de la serie economica en niveles, en
logaritmos, en primeras diferencias y en tasas de
crecimiento e intente decidir que transformacion hace la
serie paracer mas estacionaria.
• Correlograma de las transformacions propuestas
previamente. En el capitulo siguiente aprendera a
identificar una familia de modelos en base al
correlograma.
• Descarguese la base de datos Eco-Win de la
Biblioteca de la UC3M y analice graficamente las
series que mas le interesen.
• Recuerde que el movimiento se demuestra andando.
Descargar

Introduction to Time Series Analysis