Estadística
2009
Maestría en Finanzas
Universidad del CEMA
Profesor: Alberto Landro
Asistente: Julián R. Siri
Clase 9
1. Modelos Dinámicos y Procesos Estocásticos
2. Procesos AR(1)
3. Procesos AR(2)
4. Procesos MA(1)
5. Procesos MA(2)
6. Estacionariedad e Invertibilidad
7. Procesos ARMA
1. Modelos Dinámicos y Procesos Estocásticos
Proceso estocástico estacionario en sentido débil
•Un proceso es estacionario de orden S cuando sus momentos de
orden S son independientes del tiempo. Esto equivale a decir, según
la definición débil del proceso estocástico, que un proceso es
estacionario si su media y varianza son iguales para cualquier t y si
el valor de la covarianza entre dos períodos de tiempo depende
solamente de la distancia o rezago entre esos dos períodos y no del
tiempo en el cual se ha calculado la covarianza.
E  Y  t1  Y  t 2  ...Y  t s    E  Y  t1  h  Y  t 2  h  ...Y  t s  h  
 t i , t i  h  T , i  1, 2, ... 
1. Modelos Dinámicos y Procesos Estocásticos
• Entonces, sea pues Yt un proceso estocástico, será éste estacionario si
cumple con
1  E (Y t )  
2  var( Y t )  E (Y t   )  
2
2
3   k  E (Y t   )( Y t  k   ) 
Donde la última ecuación habla sobre la covarianza con rezago k.
A partir de lo visto, existen dos formas tendientes a evaluar si un proceso
estocástico es o no estacionario. Una de las pruebas más utilizadas es el
llamado Test de Estacionariedad basado en el correlograma.
1. Modelos Dinámicos y Procesos Estocásticos
• Para ello vamos a observar la Función de Autocorrelación (FAC).
• La FAC del rezago k, que suele denotarse como ρk, se define como:
k 
k
0
• Ya que la covarianza y la varianza están medidas en las mismas
unidades, ρk es un número puro que se encuentra entre -1 y +1.
•Sin embargo, sabemos que sólo podremos trabajar con datos muestrales,
o aplicando la terminología de los modelos dinámicos, con alguna
realización del proceso estocástico bajo estudio.
1. Modelos Dinámicos y Procesos Estocásticos
•Entonces vamos a trabajar con la función de autocorrelación muestral
(FACM), para la cual deberemos calcular la covarianza muestral al
rezago k y la varianza muestral de la siguiente manera:
T
ˆ k 
 (Y
t
 Y )( Y t  k  Y )
t 1
T
Y teniendo en cuenta que la varianza del proceso es:
T
ˆ 0 

(Y t  Y )
2
t 1
T
Entonces la función de autocorrelación muestral queda definida por:
ˆ k 
ˆ k
ˆ 0
1. Modelos Dinámicos y Procesos Estocásticos
• La significancia estadística de cualquier ρk puede ser evaluada a partir
de su error estándar. Si estamos ante una serie de tiempo puramente
aleatoria, los coeficientes de autocorrelación muestral se distribuirán de
forma aproximadamente normal con media cero y varianza 1/T, donde T
es el número de observaciones de la muestra.
• Por lo tanto, a un nivel de significación dado, si el ρk estimado se
encuentra dentro del intervalo definido, podremos no rechazar la
hipótesis nula respecto a que el verdadero valor de ρk es igual a 0.
1. Modelos Dinámicos y Procesos Estocásticos
• Recordemos entonces que las hipótesis a contrastar en este
test son:
H 0 :  k  0 
H 1 :  k  0 
• Asimismo puede realizarse un test de significatividad
conjunta en donde se evaluará si todos los coeficientes de
autocorrelación son simultáneamente iguales a cero. Box y
Pierce desarrollaron para ello el estadístico Q, el que se define
de esta manera
m
Q  T  ˆ
2
k
k 1
•En donde m es la longitud del rezago. El estadístico se
distribuye como una χ2 con m grados de libertad.
1. Modelos Dinámicos y Procesos Estocásticos
• Si el Q calculado excede al Q crítico, a un determinado nivel de
significación, se puede entonces rechazar la hipótesis nula respecto a
que todos los ρk son iguales a 0.
•Existe asimismo una variante del Test Q conocida como la prueba de
Ljung, Box y Pierce (LBP). El estadístico para dicho test alternativo se
define como:
2
m
Q
LBP
 T  (T  2)  
k 1
ˆ k
T k
También se distribuye como una chi cuadrado con m grados de libertad.
La regla de decisión se realizará en este test de igual manera que en el
planteo del test estadístico anterior.
1. Modelos Dinámicos y Procesos Estocásticos
• En el correlograma de la serie de precios de Petrobras podemos
ver que las series de precios de activos financieros originales
suelen mostrarnos una FAC positiva y convergente a 0 y un cierto
nivel de FACP (sólo significativa para el primer rezago).
LAG
AC
PAC
Q
P ro b > Q
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
0 .9 8 5 2
0 .9 6 7 9
0 .9 5 1 5
0 .9 3 1 3
0 .9 1 3
0 .8 9 6 7
0 .8 7 9 9
0 .8 6 1 7
0 .8 4 6 3
0 .8 2 8 6
0 .8 0 9 5
0 .7 9 2 6
0 .7 7 5 1
0 .7 5 5 9
0 .7 3 7 7
0 .7 2
0 .7 0 1 2
0 .6 8 4 9
0 .6 7 0 1
0 .6 5 3 8
0 .9 8 5 4
-0 .0 8 3 4
0 .0 3 5 7
-0 .1 4 8 3
0 .0 8 1
0 .0 3 4 1
-0 .0 0 6 1
-0 .0 7 7 1
0 .0 8 5 6
-0 .1 0 4 1
-0 .0 1 6 1
0 .0 3 4 8
-0 .0 1 5 5
-0 .0 6 0 2
0 .0 1
0
-0 .0 1 0 6
0 .0 5 5 4
0 .0 0 4 2
-0 .0 3 3 9
4 8 8 .2 2
9 6 0 .3 7
1 4 1 7 .6
1 8 5 6 .5
2 2 7 9 .1
2 6 8 7 .7
3 0 8 1 .9
3 4 6 0 .7
3 8 2 6 .9
4 1 7 8 .6
4 5 1 4 .9
4 8 3 8 .1
5 1 4 7 .7
5 4 4 2 .8
5 7 2 4 .4
5 9 9 3 .3
6 2 4 8 .8
6 4 9 3 .1
6 7 2 7 .4
6 9 5 0 .9
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
0 .0 0 0 0
2. Procesos AR(1)
• Vamos a analizar los procesos autorregresivos, que son aquellos
procesos estocásticos que, en mayor medida, pueden ser
explicados por su propia historia.
• Decíamos que un proceso que “no tiene memoria” es un
proceso autorregresivo de orden 0. Teóricamente nuestro ruido
blanco será un proceso autorregresivo de orden 0, ya que cada
observación presente no estará influida por ninguna observación
del pasado.
2. Procesos AR(1)
Sea un proceso Yt  AR(1):
Yt    1Yt 1   t
Entonces, será condición necesaria y suficiente, para que el proceso
estocástico pueda ser considerado estacionario, que  1 sea, en valor
absoluto, menor que la unidad.
1. Procesos AR(1)
• En esta ecuación tenemos dos constantes  y 1 , y  t , que es
un ruido blanco.
•Si un modelo AR(1) es estacionario, entonces su esperanza y su
varianza son constantes en el tiempo y se tiene que:
a) E  Yt     1 E  Yt 1   E   t     1 E  Y t 1 
Por lo que E  Yt    y 

1  1
b) var(Yt )  1 var(Yt 1 )  var(  t ). Ahora si el proceso AR(1) es
2
estacionario, entonces var(Yt )  var(Yt 1 ) y entonces
2

2

Y 
2
1  1
3. Procesos AR(1)
La función de autocovarianzas asume la forma:
j
 j  Y   1  0  Y   j  1, 2,... 
Mientras que la FAC satisface la siguiente ecuación en-diferencias:
 j  Y   1  j 1  Y   j  1, 2, 3, ... 
Cuya solución es:
 j Y   
j
1
Y 
La FACP será de la forma:
 1 Y
 jj  Y   
0

 j  1, 2, 3,... 
para j  1
para j  1
3. Procesos AR(1)
Del sistema de ecuaciones de Yule-Walker obtenemos inmediatamente
que:
YW
ˆ
1  ˆ 1
Recurriendo a la fórmula del coeficiente de determinación que se utilizan
en los modelos clásicos, se puede escribir:
   A R 1  
2
R 1
2
1
Y
2
  1  Y   1
2
2
3. Procesos AR(2)
• Pasemos ahora a los procesos autorregresivos de orden 2, que
denotamos con AR(2), si responden a la siguiente formulación:
Yt    1Yt 1   2Yt  2   t
• En este caso lo que estamos suponiendo es que la influencia que
puede tener la historia en el comportamiento del proceso se resume
en su rezago de orden 2.
• La FAC de un AR(2) también converge exponencialmente a 0.
4. Procesos AR(2)
Siendo:
Yt    1Yt 1   2Yt  2   t
La representación del proceso estocástico, la condición de
estacionariedad se verifica cuando las raíces de su ecuación
característica:
  B   1  1 B   2 B  0
2
Son, en módulo, mayores que la unidad. Esta condición implica las
siguientes relaciones sobre los coeficientes del proceso:
 2  1  1
 2  1  1
2  1
4. Procesos AR(2)
La FAC del AR(2), que satisface la ecuación en-diferencias:
 j  Y    1  j 1  Y    2  j  2  Y
  j  0
Queda determinada por los dos primeros valores de  j :
1 Y  
 2 Y  
1
1  2
1
2
1  2
 2
4. Procesos AR(2)
La varianza, definida por la relación:
Y  
2
2
1     Y   
1
1
2
 2 Y

Se puede descomponer en:
2

i)
Una varianza debida a las innovaciones    ;
ii) Una varianza debida a las autocorrelaciones de primer orden del
1
2
proceso, 1   1  Y    ;
iii) Una varianza debida a la autocorrelación parcial de segundo orden
1
del proceso,  1   22  Y    .
4. Procesos AR(2)
En lo que hace a la expresión de las condiciones de estacionariedad en
función de los coeficientes de autocorrelación, teniendo en cuenta
que:
 2 Y   1 Y
2
2 
1 
2
1
Y 

1
Se obtienen las siguientes desigualdades:
1 Y

1
 2 Y

1
 2 Y   2 
2
1
Y   1
4. Procesos AR(2)
Teniendo en cuenta la expresión correspondiente a   dada
anteriormente, y recurriendo nuevamente al coeficiente de
determinación, se puede escribir:
2
   AR  2 
2
R2  1 
2

2
Y
  1  Y  1   2  Y   2
Generalizando, el coeficiente de determinación correspondiente a una
representación AR(p) puede ser expresado utilizando la siguiente
fórmula recursiva:
R   pp 1  R
2
p
2
p 1
 R
2
p 1
 p  1, 2, 3,... 
4. Procesos MA(1)
• Se llama proceso de medias móviles de orden uno (MA(1), por
moving average), que se denota como
Yt     t   . t 1
•En esta ecuación tenemos dos constantes (θ y δ) y εt, que es un
ruido blanco.
•Como primeras propiedades de este proceso se tiene
inmediatamente que Eyt= δ y también que Var yt= (1+θ2).σ2ε
2. Procesos MA(1)
Representación MA(1) de la forma:
y t   t   1 t  1   1   1 B   t
(donde: i) yt denota una variable centrada y ii)   t  : WN-débil), se
verifica que:
 0  Y     1   1
2
2

 1  Y     1 
2

j
Y  
0

j  2
2. Procesos MA(1)
• Su función de autocorrelaciones será de la forma:
 j Y

1


2
  1  1
0

j 1
j 2
•Así podemos obtener fácilmente que la autocorrelación de primer orden
obedece a una ecuación de segundo grado de la forma:
 1 1   1   1  0
2
Y como:
1 
1 
1  4 1
2
2 1
Sólo puede asumir valores reales, para que el proceso sea invertible
necesariamente se tiene que verificar que…
2. Procesos MA(1)

1
 1 
2
1
2
La condición de invertibilidad exige que  1  1 y, por lo tanto, hay una
única representación MA(1) invertible para cada función de
autocorrelaciones.
•Los coeficientes de autocorrelación parcial quedan definidos, en forma
general por:
 1 1   1
j
 jj  Y  
2

j
2  j  1
1  1
 1, 2, 3, ... 
De esta expresión se concluye que    y, por lo tanto, que la función
de autocorrelaciones parciales está dominada por una función
exponencialmente decreciente.
j
jj
1
2. Procesos MA(1)
• Si el parámetro θ es negativo, entonces la FACP converge a cero
exponencialmente alternando en signo y empezando por un valor
positivo.
• Si en cambio el parámetro θ tiene signo positivo, entonces la
convergencia va a ser con todos los valores de la FACP tomando
signo negativo.
• Nótese entonces que un proceso MA(1) no puede generar nunca
una FACP que sea siempre positiva.
4. Procesos MA(1)
• Veamos el correlograma de una serie generada para ser un
MA(1)
5. Procesos MA(2)
• Un proceso de medias móviles de orden 2 (MA(2)) es un proceso
estocástico que sigue la ley:
Yt     t   1 t 1   2  t  2
• Siguiendo un proceso de inversión similar al que hicimos con el
proceso MA(1), se puede probar fácilmente que la FACP de este
proceso puede tener diversas formas, dependiendo de los signos y
los valores relativos de θ1 y θ2. En cambio, la función de
autocovarianza cumple:
2
2
2
2
 0     (1   1   2 ). 
 1    1 .(1   2 ). 
2
 2    2 . 
2
3. Procesos MA(2)
Representación MA(2) de la forma:
Yt     t   1 t 1   2  t  2
Condición de invertibilidad: que las raíces de
  B   1  1 B   2 B
2
 0
Sean, en módulo, mayores que la unidad. Es decir, que los
coeficientes sean tales que:
 2   1  1

 2   1  1

 2  1
3. Procesos MA(2)
• De lo anterior se desprende que:

 1 Y  


  2 Y  

  Y  
 j

 1 1   2 
1  1   2
2
2
 2
1  1   2
2
0
2
 j  3
Y los valores iniciales de los coeficientes pueden ser expresados como:
 
 0 Y
2

1  1   2
2  
2
 2 Y
2


2
  1 Y
1   
2





  1 2 

5. Procesos MA(2)
• Veamos el correlograma de una serie generada para ser un
MA(2).
6. Estacionariedad e Invertibilidad
• Las condiciones de estacionariedad e invertibilidad son
impuestas respectivamente a los procesos AR(p) y MA(q).
•Decíamos que es deseable que un proceso AR(p) sea estacionario
de modo que se pueda estimar uno y sólo un modelo y no uno que
contenga infinitos parámetros, por ejemplo, por el cambio a cada
momento del tiempo, de la esperanza del proceso.
•Las condiciones que se imponen a los AR buscan evitar que las
sumatorias que se desarrollan se vuelvan infinitas y no converjan a
0. Los procesos AR(p) siempre son invertibles.
6. Estacionariedad e Invertibilidad
• En el caso de procesos de medias móviles, las condiciones
similares a las de estacionariedad son las de invertibilidad.
• Cuando un proceso MA es invertible, entonces dicho proceso
admite una representación autorregresiva, donde los valores
pasados de la variable yt reciben una ponderación cada vez menor.
• Cuando presentamos los modelos autorregresivos supusimos que
los procesos bajo estudio eran estacionarios. Sin embargo, las
series de datos económicos que usualmente se analizan se
caracterizan por ser claramente no estacionarias, como ya vimos la
clase pasada.
•Cuando esto ocurre, lo usual es que las primeras o segundas
diferencias de la variable original sí sean estacionarias.
4. Procesos ARMA(p,q)
• Las representaciones de procesos estocásticas vistas hasta aquí
pueden ser llamadas formas “puras”. Sin embargo, en el análisis
empírico de series económicas es muy frecuente encontrar
representaciones que tienen una componente autorregresiva así
como una componente de medias móviles. Estos modelos se
denotan como modelos ARMA(p,q) donde p y q denotan las
órdenes de los componentes autorregresivo y de medias móviles.
•La estructura de un ARMA(p,q) es:
Yt  1Yt  1  ...   p Yt  1   t   1 t  1  ...   q  t  q
7. Procesos ARMA
• La FAC de un proceso ARMA(1,1) comienza del valor ρ1 que
acabamos de mostrar y a partir de él, decrece a una tasa Φ. Es
decir, que la FAC se comporta a partir de k=1 como la FAC de un
proceso AR(1). Generalizando: la FAC de un proceso ARMA(p,q)
se comporta como la FAC de un AR(p) para todo k>q.
• Esto hace que la identificación no sea tan sencilla, ya que la FAC
y la FACP de un ARMA(p,q) heredan características de sus dos
componentes.
7. Procesos ARMA
• Dado que no hay reglas claras como para la identificación de los
procesos por separado, lo más común es una “iteración” hasta que
se decide qué modelo es el que mejor ajusta. Por ejemplo, a la
hora de definir un proceso ARMA(2,1) se comenzará por
especificar un AR(2) y luego, al comprobar que los residuos
siguen una forma MA(1) se especificará un ARMA(2,1).
y t  1 . y t 1   2 . y t  2  u t
uˆ t   t   1 . t 1
luego
y t  1 . y t 1   2 . y t  2   t   1 . t 1  A R M A (2,1)
4. Procesos ARMA(p,q)
Coeficiente de determinación y estimación
de los órdenes p y q

 i
2


2
R  1
2

2
Y
2
 1



2
 i
A IC  p , q   ln  ˆ 
B IC  p , q   ln  ˆ 
2
A IC C  p , q   ln ˆ 

2
 1
2
i0
 A R M A  p , q    
 A R M A  p , q    

 i
2
i0
2
 0
i 1
2 p  q
n
 p  q  ln  n 
 A R M A  p , q    
n
2 p  q
n pq
Se seleccionará como modelo más adecuado aquél para el cual se
verifique que: A IC  pˆ , qˆ   m in  A IC  p , q  ; p  p , q  q 
B IC  pˆ , qˆ   m in  B IC  p , q  ; p  p , q  q 