Introducción:
Características básicas de los datos
económicos de series temporales
Qu’est-ce que c’est La Econometria?
Def: Analisis cuantitativo de relaciones económicas causales.
Algunos hechos:
• Hacia 1930 en un hotel de Ohio (EEUU) se crea la Econometric Society,
editora de la revista ECONOMETRICA.
• Ragnar Frisch, Econometrica (1933) la define como una intersección especial
entre Matemáticas, Estadística y Economía.
• Haavelmo (1944) introduce la metodologia de la Econometria moderna: Los
modelos cuantitativo economicos deben ser modelos probabilisticos o
estocasticos.
Diferentes Modelos Econometricos:
• Aproximacion Estructural: El modelo economico esta correctamente
especificado
• Aproximacion Quasi-Estructural: El modelo economico es una aproximacion
• Aproximacion Semiparametrica: Una parte del modelo esta bien especificada y
la otra se deja sin especificar.
Quizas el mejor ejemplo de modelo es un MAPA a diferentes escalas y para
diferentes usos
Dos tipos de observaciones o datos:
• observacionales
• experimentales
La estructura de los datos observacionales:
• Seccion cruzada
• Series temporales
• Panel
…..y recuerda como empieza la pagina web del curso
Econometrics Uncertainty Principle
• In order to study causality we need to keep certain things constant
("ceteris paribus")
• In order to study causality we need time to pass (there is not causality
between simultaneous events)
• Nothing is constant through time
• Therefore ...........
Breve Repaso de Tª de la Probabilidad
•
Espacio Muestral: Ω  { } , el conjunto de posibles resultados de un experimento aleatorio
•
Resultado:
•
Suceso:
•
Algebra:
•
Variable Aleatoria:
•
Conjunto de Estados: S, el espacio que contiene todos los posibles valores de una variable aleatoria.
Las elecciones mas comunes son los números naturales N, los reales R, vectores de dimensión k Rk,
los reales positivos R+, etc
•
Probabilidad: P : F  [ 0 ,1] , obedece las tres reglas que ya sabéis. Importante que el origen es
F
y no solo Ω
•
Distribución:  : B  [ 0 ,1], donde B  { A : A  R } es un Borel Set (conjunto
de la recta real que puede expresarse como uniones o intersección de intervalos) donde vive la
variable aleatoria Z.

, un elemento del Espacio Muestral
E  
, un subconjunto del Espacio Muestral
F  E : E  }
, colección de sucesos que nos interesa estudiar
Z :   S , una función del Espacio Muestral al conjunto de estados S
Breve Repaso (cont)
•Vector de Variables Aleatorias: Z= (Z1, Z2 , ..., Zk) es un vector de dimensión k donde cada
componente es una variable aleatoria
•Sucesión de Variables Aleatorias: Z= (Z1, Z2 , ..., Zn) es una sucesion de n variables aleatorias
Si interpretamos t=1, ..., n como momentos equidistantes en el tiempo, Zt puede interpretarse como el
resultado de un experimento aleatorio en el momento de tiempo t . Por ejemplo la sucesión de
variables aleatorias podria ser los precios de las acciones de Toyota Zt en n días sucesivos. Siempre
que se mencione un ejemplo pensad vosotros en otros ejemplos alternativos.
Un aspecto NUEVO, comparado con la situación de una sola variable aleatoria, es que ahora podemos
hablar de la estructura de DEPENDENCIA dentro del vector de variables aleatorias.
•Función de Distribución FZ de Z : Es la función
F Z ( z )  P ( Z 1  z1 ,..., Z n  z n )
 P ({  : Z 1 ( )  z1 ,..., Z n ( )  z n })
Repasad las propiedades de la función de distribución.
Procesos Estocásticos
Supongamos que el tipo de cambio €/$ en cada instante fijo de
tiempo t entre las 5p.m y las 6p.m. de esta tarde es aleatorio.
Entonces podemos interpretarlo como una realización Zt() de la
variable aleatoria Zt tipo de cambio. Observamos Zt(), 5<t<6. Si
quisieramos hacer una predicción a las 6 p.m. sobre el tipo de
cambio Z7() a las 7 p.m. es razonable considerar TODA la
evolución de Zt() entre las 5 y las 6 p.m. El modelo matematico
que describe esta evolución se le llama proceso estocástico.
Procesos Estocásticos (cont)
Un proceso estocástico es una colección-sucesión de variables aleatorias
indexadas por el tiempo
( Z t , t  T )  ( Z t (  ), t  T ,    )
definidas en un espacio muestral .
Supongamos que
(1) Fijamos t
(2) Fijamos

Z t ( ),
Z t :   R Esto es una variable aleatoria.
Z : T  R
Es una realización o trayectoria del
Proceso Estocástico.
Cambianos el indice temporal podemos generar varias variables aleatorias:
Z t1 ( ), Z t 2 ( ),....... Z t n ( )
1
t
Una realización es:
z , z t 2 ,..., z t n
La colección-sucesión de variables aleatorias se le llama PROCESO ESTOCATISCO
Una realización del proceso estocástico se le llama SERIE TEMPORAL
Ejemplos de procesos estocásticos
E1: Sea el conjunto indice T={1, 2, 3} y sea el espacio muestral () el formado por los
resultados de lanzar un dado:
1, 2, 3, ,4 ,5, 6}
Definimos el siguiente proceso estocástico
Z(t, )= t + [valor del dado]2 t
Entonces para un  particular, digamos 3={3}, la realización o trayectoria es (10, 20,
30).
Q1: Dibuja todas las realizaciones de este proceso estocástico.
Usa Gapminder para observar un proceso estocástico donde el experimento se llama
producción economía mundial y w es un país concreto.
E2: Un Movimiento Browniano B=(Bt, t [0, infty]):
• Comienza en cero: Bo=0
• Tiene incrementos independientes y estacionarios
• Para cada t>0, Bt sigue una distribución N(0, t)
• Tiene trayectorias continuas: “no saltos”.
Distribución de un Proceso Estocástico
En analogía con las variables aleatorias queremos introducir caracteristicas no aletorias
de los procesos estocásticos tales como su distribución, su esperanza, varianza, etc, y
describir su estructura de dependencia. Esta es una tarea mucho más complicada que en
el caso de vectores de variables aleatorias. De hecho un proceso estocástico no-trivial
Z=(Zt, t  T) con un conjunto índice T es un objeto de dimensión infinita en el sentido
de que se puede entender como una colección infinita de variables aleatorias Zt, t  T.
Ya que los valores de Z son funciones en T, la distribución de Z debería ser definida
sobre subconjuntos de un cierto “espacio de funciones”, i.e.
P(Z  A), A  F,
donde F es una colección apropiada de subconjunto de este espacio de funciones. Este
enfoque es posible, pero requiere matemáticas muy avanzadas. En este curso
intentaremos algo mucho mas simple.
Las distribuciones finito-dimensionales (fidis) de un proceso estocástico Z son las
distribuciones de los vectores finito dimensionales
(Zt1,..., Ztn),
t1, ..., tn T,
para todas las posibles elecciones de t1, ..., tn  T y para cada n  1.
Necesitamos hacer dos supuestos:
Al igual que en la Econometría básica trabajábamos con dos
los supuestos de i.i.d. (independiente e idénticamente
distribuido), en la Econometría de Series Temporales nos hace
faltan dos supuestos equivalentes:
• Estacionariedad (substituye al supuesto de identicamente
distribuido)
• Ergodicidad (substituye al supuesto de independencia)
Estacionareidad
Considera la probabilidad conjunta de un conjunto de variables
aleatorias
F ( z t1 , z t 2 ,..... z t n )  P ( Z t1  z t1 , Z t 2  z t 2 ,... Z t n  z t n )
Proceso estacionario de 1st orden si
F ( z t1 )  F ( z t1  k )
para todo t1 , k
Proceso estacionario de 2nd orden si
F ( z t1 , z t 2 )  F ( z t1  k , z t 2  k )
para todo t1 , t 2 , k
Proceso estacionario de orden n si
F ( z t1 ..... z t n )  F ( z t1  k ..... z t n  k )
para todo t1 , t n , k
Definición. Un proceso es estrictamente (o en sentido fuerte)
estacionario si es estacionario de orden n para cada n.
Momentos (repaso)
E (Z t )   t 

Z t f ( z t ) dz t
2
2
Var ( Z t )    E ( Z t   t ) 
t

( Z t   t ) f ( z t ) dz t
Cov ( Z t , Z t )  E [( Z t   t )( Z t   t )]
1
2
1
1
2
2
 ( t1 , t 2 ) 
cov( Z t , Z t )
1
2

2
t1

2
t2
2
Momentos (cont)
t  
Para procesos estrictamente
estacionarios:
porque
 t2  
2
F ( z t1 )  F ( z t1  k )   t1   t1  k  
asumiendo que
E ( Z t )  , E (Z
t
2
)  
Tambien se cumple que
F ( z t1 , z t 2 )  F ( z t1  k , z t 2  k ) 
cov( z t1 , z t 2 )  cov( z t1  k , z t 2  k ) 
 ( t1 , t 2 )   ( t1  k , t 2  k )
sea
t1  t  k
y
t2  t ,
entonces
 ( t1 , t 2 )   ( t  k , t )   ( t , t  k )   k
La correlación entre dos variables aleatorias depende SOLAMENTE
de su diferencia temporal.
Estacionareidad Débil
Un proceso se dice que es estacionario debil de orden n si todos sus
momentos conjuntos de orden n existen y son invariantes en el
tiempo.
Procesos Estacionarios en Covarianzas (de 2nd orden):
• Esperanza constante
• Varianza constante
• La función de covarianzas depende solo de la diferencia
temporal entre las variables
Funciones de Autocovarianza y de Autocorrelación
(repaso)
Para un proceso estacionario en covarianzas:
E (Zt )  
Var ( Z t )  
2
Cov ( Z t , Z s )  
k 
st
cov( Z t , Z t  k )
var( Z t )

var( Z t  k )
 k : función
k

2

de autocovari
k
0
anza
 :k  R
 k : función
de autocorrel ación (ACF)
 : k  [  1,1]
Propiedades de la función de autocorrelación (repaso)
1. Si   var( Z ) entonces
0
t
2. Como  k es un coeficient
0  1
e de correlació
n,
k  1   k   0
3.  k    k
 k   k
ya que  k  E ( Z t  k   )( Z ( t  k )  k   ) 
 E ( Z t  k   )( Z t   )    k
Funcion de Autocorrelación Parcial (o correlación
condicional)
Esta función mide la correlación entre dos variable separadas k periodos
cuando la dependencia lineal en el medio de esos periodos
(entre t y t+k ) es eliminada (?) o mejor dicho condicionada a ella.
Sean Z t y Z t  k dos variables
,
dada por  ( Z t , Z t  k | Z t  1 ,...... Z t  k 1 )   kk
la PACF viene
Motivación
aleatorias
Piensa en el modelo de regresión lineal
(asume E(Z)=0 sin perdida de generalidad)
Z t  k   k 1 Z t  k  1   k 2 Z t  k  2 ......   kk Z t  e t  k
donde e t  k esta incorrleac
(1) multiplica
ionada con Z t  k  j
j1
por Z t  k  j
Z t  k  j Z t  k   k 1 Z t  k  1 Z t  k  j   k 2 Z t  k  2 Z t  k  j ......   kk Z t Z t  k  j  e t  k Z t  k  j
( 2 ) toma esperanzas
 j   k 1
j 1
  k 2
j2
......   kk 
jk
Dividiendo por la varianza del proceso:
 j   k 1  j 1   k 2  j  2 ......   kk 
jk
j  1, 2 ,... k
 1   k 1  0  .......   kk  k 1
 2   k 1  1  .......   kk  k  2
Ecuaciones de
Yule-Walker

 k   k 1  k 1  .......   kk  0
k  1
k  2
 1   11  0   11   1
 1   21  0   22  1
 2   21  1   22  0
k  3
  22 
 1   31  0   32  1   33  2
 2   31  1   32  0   33  1
 3   31  2   32  1   33  0
1
1
1
2
1
1
1
1
1
1
  33 
1
1
1
2
 2 1  3
1
1
1
2
1
1
 2 1
1
Ejemplos de Procesos Estocásticos (para ver si se ha
entendido el concepto de estacionareidad)
E4:
Yt
si t es par
Yt+1
si t es impar
Zt=
donde Yt es una serie estacionaria. Es Zt estacionaria debil?
E5: Defina el proceso
St = X1+ ... + Xn ,
donde Xi es iid (0, 2). Muestra que para h>0
Cov (St+h, St) = t 2,
y por lo tanto St no es estacionario debil.
Ejemplos de Procesos Estocásticos (cont)
E6: Procesos RUIDO BLANCO
Una secuencia de variables aleatorias
a t } : E ( a t )   a (normalmen
te  a  0 )
Var ( a t )   a
2
Cov ( a t , a t  k )  0 para k  0
Autocovari
k
  a2
 
0
1
k  
0
 kk
1
 
0
anza y autocorrel ación
k 0
k 0
k 0
k 0
k 0
k 0
k
....
1
2
3
4
k
Dependencia: Ergodicidad
Queremos permitir tanta dependencia como la Ley de los Grandes Números (LGN) nos
deje.
Estacionareidad no es suficiente como el siguiente ejemplo muestra:
E7: Sea {Ut} una secuencia de variables iid uniformemente distribuidas en [0, 1] y sea Z una
variable N(0,1) independiente de {Ut}.
Defina Yt=Z+Ut . Por lo tanto Yt es estacionaria (por qué?), pero
n
Yn 
1
n

1
no
Yt  
 E (Y t ) 
2
t 1
Yn  Z 

1
2
El problema es que hay demasiada dependencia en la secuencia {Yt}. De hecho la
correlación entre Y1 y Yt es siempre positiva para cualquier valor de t.
Ergodicidad en la Media
Objectivo: estimar la media del procesos
Necesitamos distinguir entre:
1. Media Vertical (ensemble average)
Z t }   E ( Z t )
2. Media Temporal
n
m
z 
Z
i
i 1
m
Cual es el estimador más apropiado?
z 
Z
t
t 1
n
La media vertical
Problema: Es imposible calcularla de forma eficiente pues solo
Contamos con una observación en cada “t”.
Bajo que condiciones nos vale con estimar la media temporal?
Es la media temporal un estimador insesgado y consistente de la media
vertical?
Ergodicidad en la media (cont)
Recordad. Condiciones suficientes para la consistencia de un
estimador ˆ
T
lim E (ˆT )  
T 
y lim var( ˆT )  0
T
1. La media temporal es insesgada
E (z) 
1
E (Z

n
t
)
t
1


n
 
t
2. La varianza de la media temporal convergence a cero
var( z ) 
1
n

2
  cov( Z
t
,Zs) 
0
n
2
n
n

ts

t 1 s 1
n
 (
t 1
  t2    tn ) 
t 1
0
n
n
t 1 s 1
0
n

2
n
2
[(  0   1     n 1 )  (  1   0   1     n  2 ) 
   (   ( n 1 )    ( n  2 )     0 )] 
Ergodicidad en media (cont)
var( z ) 

n
n 1

0
2
k   ( n 1 )
lim var( z )  lim
n 
(n  k ) k 
n 

0
n

0

k
(1 
k
n

0
n
 (1 
k
k
n
) k
) k  0

Finito
Un proceso estacionario en covarianzas es ergodico en la media
si
p lim z  E ( Z t )  
Una condición suficiente para ergodicidad en la media es
k  0
cuando
k  
Quereis que las sociedades sean ergodicas o no? Interpretad esta
condicion en terminos de “justicia”.
Ergodicidad para los segundos momentos
Una condición suficiente para ergodicidad en los segundos
momentos

k  
k
Ergodicidad bajo Gausanidad
Si Z t }
es un proceso gausiano estacionario,

k  
k
es una condición suficiente para asegurar ergodicidad en todos
los momentos
Como vamos a estimar los momentos poblaciones de las
series temporales????
Utilizaremos el metodo de analogia tan usado en los cursos
previos de Econometria:
•Momentos poblaciones se estiman via momentos
muestrales.
•Asumiendo estacionareidad y ergodicidad estos
estimadores serán consistentes.
Donde Estamos?
Considera el Problema de la Prediccion como motivación:
Predecir Zt+1 dado el conjunto de información It en el tiempo t.
 2
Min E [ Z t 1  Z t 1 ]

Solución : Z t 1  E [ Z t 1 | I t ]
Este teorema es de lo más “bello” de la Econometria. Entiendelo
bien, criticalo. El Homework 1 tiene una parte dedicado a él.
La esperanza condicional puede ser modelada en una forma
paramétrica o en una forma no-paramétrica. En este curso
elegiremos la primera. Los modelos parametricos pueden ser
lineales o no-lineales. En este curso elegiremos los modelos lineales.
Resumiendo los modelos que vamos a estudiar en este curso son
modelos parametricos y lineales
Apendice I: Transformaciones
(vease el conjunto de notas extra)
• Objetivo: Tratar con procesos mas manejables
•Transformación logaritimica reduce cierto tipo de
heterocedasticidad. Si asumimos que
t=E(Xt) y V(Xt) = k 2t,
se puede demostrar (por el metodo delta) que la varianza del
log es aproximadamente constante:
'
2
2
Var ( f ( Z ))  f (  ) Var ( Z )  Var (log( Z t )  (1 /  t ) Var ( Z t )  k
• Tomar dieferencias elimina la tendencia (no muy
informativo sobre la naturaleza de la tendencia)
• Diferencias del Log = Tasa de Crecimiento
log( Z t )  log( Z t  1 )  log(
Zt
Z t 1
)  log( 1 
Z t  Z t 1
Z t  Z t 1
)
Z t 1
Z t 1
Apendice II: Analisis Gráfico
• Objetivo: Descubrir características básicas de los datos
• Realiza gráficos de diferentes series económicas en
niveles, en logaritmos, en primeras diferencias y en
tasas de crecimiento e intente decidir que
transformacion hace la serie parece más estacionaria.
• Correlograma de las transformacions propuestas
previamente. En el capitulo siguiente aprendera a
identificar una familia de modelos en base al
correlograma.
• En la clase del grupo reducido se enseñará a
descargarse los datos para el proyecto empírico del
curso vía IHS (biblioteca) o FRED.
• Recuerde que el movimiento se demuestra andando.
Descargar

Introduction to Time Series Analysis