Capitulo 7: Autocorrelación
Definición y causas de autocorrelación
Contrastes de heteroscedasticidad: Durbin-Watson, BreuschGodfrey
Estimación por MCG: Cochrane-Orcutt y Prais-Winsten
Predicción con modelos de autocorrelación.
Información
• Estos transparencias no son completas.
• La idea con las transparencias es dar una
estructura general y asegurar que gráficos
y ecuaciones están reproducidos
correctamente.
• Cada estudiante debe tomar notas
adecuadas para completar las
transparencias.
Definición
• Definición: valores están relacionados en
momentos diferentes en el tiempo.
• Un valor positivo (o negativo) de u t genera una
sucesión de valores positivos (o negativos). Esto
es autocorrelación positiva.
• Autocorrelación también puede manifestarse por
la alternancia de signos en la sucesión de
valores. Entonces se llama autocorrelación
negativa.
Definición
Causas
• La existencia de ciclos y/o tendencias
• Relaciones no lineales
• La omisión de variables relevantes
Causas
Causas
Los residuos no serán independientes del tiempo.
Modelos autorregresivos (AR) y
media-móvil (MA).
• Modelos lineales que permiten
caracterizar el fenómeno de la
autocorrelacion: los esquemas
autorregresivos (AR) y media-móvil (MA).
Modelos autorregresivos (AR) y
media-móvil (MA).
AR( p); ut  1ut 1  2 ut 2  ...   p ut  p   t
con  t  N (0,  2 )
MA(q); ut   t  1 t 1   2 t 2  ...   q t q
con  t  N (0,  2 )
Modelos autoregresivos (AR) y
media-móvil (MA).
• AR(1): La correlación entre momentos
diferentes del tiempo, no se limita a dos
periodos sucesivitos , sino que se mantiene
para cualquier distancia entre esos dos
momentos del tiempo . (Memoria ilimitada).
• MA(1): La correlación en momentos diferentes
del tiempo sólo se mantiene en dos períodos
inmediatamente sucesivos , etc.,
desapareciendo cuando la distancia en el
tiempo es superior al orden del MA. (Memoria
limitada).
• AR(1)
 1

2


1

2 
  2


1
12 


 
 N 1  N  2  N  3

MA(1)
  N 1 

  N 2 
  N 3 


 

1 
1 
 1 

  1 
(1   2 ) 2 
 


0



0

1









1 
Estimación (idea)
• AR(1):
ˆ MCG  ( X '  1 X ) 1 X '  1 y
ˆ MCG  ( X * ' X * ) 1 X * ' y*
donde: y*  T y,X *  T X,u *  T u
 1 2

 

T 




1
 
 
0



0





1

  1
• AR(1)
 1 2 y 
1


 y2  y1 
y*   y3  y2 ,







y


y
T 1 
 T
 1 2 x 
1


 x2  x1 
X *   x3  x2 







x


x
T 1 
 T
• Hay que estimar el parámetro 
.
(Este se explica en la parte de estimación más
tarde. )
Las funciones de autocorrelación
simples (FAS) y parcial (FAP) de los
residuos.
• Autocorrelación simple:
N
ˆ 
e e
t t k
t k
N
2
e
t
t 1
k 1
1
2
vaˆr(ˆ k )  1  2 ˆ k 
N
k 1

Función de autocorrelación parcial
et  11et 1  vt
et  11et 1   22 et  2  vt
 ˆ11
 ˆ22
FAP orden1
FAP orden 2

et   k1et 1   k 2 et  2  ...   kk et  k vt


 ˆkk

FAP orden k
Contrastes de autocorrelación
Estructura general;
1. la hipótesis nula es no autocorrleación.
2. la construcción esta basada en los
residuos de la estimación por MCO (sin
considerar la posible autocorrelación).
Contrastes de autocorrelación
• Durbin-Watson
Hipótesis alternativa: AR(1).
1)
2)
N
DW 
 (e
t 2
t
 et 1 ) 2
N
e
t 1
2
t
H 0 : ut   t


 H A : u t  u t 1   t
Contrastes de autocorrelación
Durbin-Watson
• En muestras finitas hay que aplicar una
tabla con valores críticos
Contrastes de autocorrelación
Durbin-Watson
DW  2
DW  2
d inf  DW  d sup
si DW  d inf autocorrelación positiva

 si DW  d sup no autocorrelación
si DW  4  d inf autocorrelación negativa

si DW  d sup no autocorrelación

o 4  d sup  DW  4  d inf inde
Contrastes de autocorrelación
Durbin-Watson
Limitaciones:
• Su potencia es limitada para otras
hipótesis alternativas. (AR(>1), MA).
• No se puede usar los valores cuando la
regresión incluye la variable endógena
retardada. (Modelos dinámicos).
Contrastes de autocorrelación
• Breusch-Godfrey
1)
2)
3)
H 0 : ut   t


G(  2 [r ])  NR*2 H A : ut  1ut 1  ...   put  p   t ( AR( p)) o

ut   t  1 t 1  ...  qut q ( MA(q))

Nota; N se refiere a la muestra en el modelo auxiliar. Si N es la
muestra del modelo original, hay que usar N-r!
Estimación por MCG
Cochrane-Orcutt
yt  1   2 x2,t   k xk ,t  ut
donde ut  ut 1   t
1)
2)
3)
Estimación por MCG
Cochrane-Orcutt
yt  yt 1  1 (1   )   2 ( x2,t  x2,t )  ...   k ( xk ,t  xk ,t 1 )  ut  ut 1 t  2
Etapa 1:
Etapa 2:
( yt  1   2 x2,t  ...   k xk ,t )   ( yt 1  1   2 x2,t 1  ...   k xk ,t 1 )  ut  ut 1
Estimación por MCG
Cochrane-Orcutt
Inconvenientes:
1)
2)
3)
Estimación por MCG
Prais-Winsten
Usar la primera observación a través de su
transformación particular (en lugar de
eliminarla) como en el método de
Cochrane-Orcutt.
Estimación por MCG
Prais-Winsten
Ty1  1   y1 , Tx1,1  1   ,...,Txk ,1  1   xk ,1 ;
2
2
2
Estimación por MCG
Durbin
Este método intenta tratar la arbitrariedad
del valor escogida para el parámetro en
etapa 1.
Estimación por MCG
Durbin
yt  1 (1   )   2 x2,t  ...   k xk ,t   2x2,t 1  ...   kxk ,t 1  yt 1  (ut  ut 1 )
Estima por MCO, ignorando:
1)
2)
3)
Predicción con modelos de
autocorrelación (Greene, Econometric Analysis)
Consideramos un modelo AR(1), con

conocida.
ˆ MCG  ( X * ' X * ) 1 X * ' y*
donde: y*  T y,X *  T X,u *  T u
 12 y 
1


 y2  y1 
y*   y3  y2 ,







y


y
T 1 
 T
 12 x 
1


 x2  x1 
X *   x3  x2 







x


x
T 1 
 T
Predicción con modelos de
autocorrelación
• La predicción de
( x*0T 1  xT01  xT ) es,
Recuerda,
yˆ*0T 1
0
x
dado T 1 y xT
yˆ
0
*T 1
yˆ*0T 1  yˆT0 1  yT
yˆT0 1  yT  xT0 1´ˆ  xT ´ˆ
yˆ 0  x 0 ´ˆ   ( y  x ´ˆ )
T 1
T 1
yˆT0 1  xT0 1´ˆ  eT
T
T
x
´ˆ
0
*T 1
entonces;
Predicción con modelos de
autocorrelación
• Un parte de los residuos se lleva al
periodo siguiente. Para un predicción de n
periodos sería,
yˆT0  n  xT0  n´ˆ   neT
• Para un modelo AR(2),
yˆT0  n  xT0  n´ˆ  1eT  n1  2eT  n 2
• Para residuos fuera del periodo de la
muestra se usa e   e   e
s
1 s 1
2 s 2
Predicción con modelos de
autocorrelación
Consideramos un modelo MA(1).
yˆ T0 1  xT0 1´ˆ  ˆT 1
donde ˆT 1  uˆT 1  uˆT
uˆt  ˆt  uˆt 1
uˆT 1  uˆ0  0 y ˆt  ( yt  xt ´ˆ )
Después del primero periodo fuera de la
muestra,
ˆ  uˆ  uˆ
0
T n
T n
T  n1
Descargar

Capitulo 7: Autocorrelación