Capitulo 9: Modelos unívariados
de series temporales
Procesos estocásticas
Función de autocovarianza, autocorrelación y autocorrelación parcial.
Procesos de ruido blanco y paseo aleatorio
Teorema de Wold
Procesos AR(p)
Procesos MA(q)
Procesos ARMA(p,q)
Procesos ARIMA(p,d,q)
Procesos estocásticos
• Definición: Un proceso estocástico es una
sucesión de variables aleatorias ordenadas
en el tiempo (en el caso de series
temporales).
• Definición: Una serie temporal es una
realización del proceso estadístico, es decir,
es una observación de T variables aleatorias
ordenadas en el tiempo.
Restricciones a la heterogeneidad
temporal del proceso.
Restricciones de Estacionaridad
• Definición: Un proceso estocástico es
estacionario en sentido estricto o fuerte cuando
la distribución de probabilidad conjunta de
cualquier parte de la secuencia de variables
aleatorias es invariante del tiempo.
F ( x t , x t  1 ,..., x t  k )  F ( x t   , x t  1   ,..., x t  k   )
Restricciones a la heterogeneidad
temporal del proceso.
• Definición: Un proceso estocástico es
estacionario en sentido débil si los
momentos del primero y segundo orden
de la distribución (esperanzas, varianzas,
covarianzas) son constantes a largo del
tiempo.
• E(x )  ,   
para todos los t .
t
E ( xt   t )  
2
•
2

E  x t   t  x t     t  
    ,
  
para todos t y  .
Restricciones a la heterogeneidad
temporal del proceso.
• Restricciones de memoria del proceso, ergodicidad.
lim
 
  0
• La relación entre dos variables aleatorios de un proceso
es más débil cuando las variables son más lejanas en el
tiempo.
• Al aumentar el número de observaciones de la serie
temporal aumenta el número de covarianzas, pero no el
número de parámetros de estimar.
Restricciones a la heterogeneidad
temporal del proceso.
• Definición: Homogenización de una serie
temporal es cuando a través de una
transformación el serie temporal es
estacionar.
• Queremos tener una serie temporal con
una media y varianza (más o menos)
constante a largo del tiempo.
Restricciones a la heterogeneidad
temporal del proceso.
• Transformación Box-Cox:
( )
xt
 x t  1

si   0
  
 ln x t si   0
Restricciones a la heterogeneidad
temporal del proceso.
Para conseguir una media constante a largo del tiempo se puede aplicar operadores de
diferencia,  .   1  L , donde L es el operador de retardo. Lx t  x t  1 .
 x t  (1  L ) x t  x t  x t  1 .
Una media estacionaria se puede conseguir a través diferenciaciones sucesivas.
w t   x t  (1  L ) x t
d
d
Las funciones de autovarianza y
autocorrelación
• Funciones de autocorrelación miden la
relación lineal entre variables aleatorias de
procesos separadas de una cierta
distancia en el tiempo.
• Estimación de estas funciones permiten
determinar la forma del procesos
estocástico.
Las funciones de autovarianza y
autocorrelación
• La función de autocovarianza
 t ,  Cov ( x t , x t  )  E [( x t   t )( x t    t  )]
  ...,  1, 0 ,1,...
Si el proceso es estacionario, su esperanza
es constante a largo del tiempo, y la
función de autocovarianza no depende del
momento en tiempo, sólo la distancia
temporal.
   E [( x t   )( x t    )]
Las funciones de autovarianza y
autocorrelación
• Para cada retardo hay un valor diferente
para la función de autocovarianzas,
autocovarianza de orden  .
• Función de autocorrelación simple (FAS),
 t , 
 t ,
 t   t

E [( x t   t )( x t     t   )]
E ( xt   t ) E ( xt    t  )
2
2
Las funciones de autovarianza y
autocorrelación
• Si el proceso es estacionario, los
momentos de segunda orden no depende
de t .
 

0

E [( x t   )( x t     )]
E ( xt   )
2
• Una correlograma enseña la FAS en
función de  .
Las funciones de autovarianza y
autocorrelación
• La función de autocorrelación parcial
(FAP) enseña la relación lineal cuando se
ha eliminado la correlación que estas
variables tienen con otras variables.
 kk  Corr ( x t , x t  k | x t  1 ,..., x t  k  1 )
Las funciones de autovarianza y
autocorrelación
 kk 
Cov (( x t  xˆ t ), ( x t  k  xˆ t  k ))
Var ( x t  xˆ t )Var ( x t  k  xˆ t  k )
• Se puede obtener los coeficientes de FAS a
través regresiones.  x   x  v
t
t 1
11
t

 x t   21 x t  1   22 x t  2  v t



 x t   k 1 x t  1   k 2 x t  2  ...   kk x t  k  v t

• Nota: Si la esperanza de x no es cero, hay
que añadir una constante en cada regresión.
t
Las funciones de autovarianza y
autocorrelación
• Se puede demostrar que los coeficientes
de FAS se pueden escribir como una
función de coeficientes de FAP. Esta
relación se llama el sistema de
ecuaciones de Yule-Walker.
Estimación de los momentos
muéstrales
• Para un proceso estocástico estacionario con
ergodicidad, con una sola serie temporal, podemos
estimar;
Media (  ) ( x  T
1
T
x )
t
t 1
Varianza (  0 )
Autocovarianzas (   )
Autocorrelaciones (   )
Autocorrelaciones parciales (  kk )
La función de autocovarianza
• La función de autocovarianza se puede
estimar a través de la función de
autocovarianza muestral:
ˆ  T
1
T 
 (x
t 1
t
 x )( x t    x )
Función de autocorrelacion simple
• Función de autocorrelacion simple
muestral,
T 
ˆ   r 

0

 (x
t
 x )( x t    x )
t 1
T

t 1
( xt  x )
2
Función de autocorrelacion simple
Si el proceso es a) estacionario gaussiano (normal) y b) ˆ k  0 para k   , se puede
estimar la varianza de r con esta formula,
 1
1
2 
V ( r )   1  2  ri 
T 
i 1

Se puede usar la varianza para contrastar la H 0 :    0 . r  1 . 96 std ( r ) donde std ()
es el error estándar. Rechazamos la hipótesis si r es fuera del intervalo
(  1 . 96 std ( r ), 1 .96 std ( r ) ).
función de autocorrelación parcial
• Para hacer la función de autocorrelación parcial
muestral se puede aplicar MCO.
 x t  c  11 x t  1  v t

 x t  c   21 x t  1   22 x t  2  v t



 x t  c   k 1 x t  1   k 2 x t  2  ...   kk x t  k  v t

Donde 11 ,...,  kk son estimaciones consistentes de la FAP. Bajo los supuestos que el
proceso es gaussiano (normal) y que  kk   k  1, k  1  ...  0 , se puede estimar la varianza
con,
1
V (ˆkk ) 
T
de manera que si ˆkk está fuera del intervalo (  1 .96 T  1 / 2 , 1 .96 T  1 / 2 )
rechazamos la hipótesis que ˆkk  0 .
Procesos de ruido blanco
Definición:
•   es un proceso estocástico de ruido
blanco si;
T
t
t 1
E ( t )  0


2
2
 E ( t )  V ( t )   
 E (  )    0
t t 


para todos t
para todos t
para todos t y   0
• Es un proceso con media = 0, varianza
constante, y sin autocorrelación. No se
puede predecir a partir de su pasado.
Procesos de paseo aleatorio
Definición (18)
• Un proceso estocástico sigue un paseo
aleatorio si; x t  x t 1   t
donde  t es ruido blanco
• El valor en un momento es el valor del
periodo anterior más un efecto aleatorio
ruido blanco. x  x   x  (1  L ) x  
t
t 1
t
t
t
Procesos de paseo aleatorio
Procesos de paseo aleatorio
• Se puede generalizar el modelo e
incorporar una deriva.
 xt     t
x t  x t 1     t
Procesos de paseo aleatorio
• Memoria permanente; todo los efectos
aleatorios tienen un efecto permanente.
x t  x t  1     t  ( x t  2     t  1 )     t  ...
t 1
 x0  t 

t j
j0
•  es una pendiente de una tendencia
determinista.
• x está formado por la suma de todo las
perturbaciones pasadas.
t
Procesos de paseo aleatorio
• El primero momento;

E ( xt )  E  x0   t 



  t  j   x 0   t
j0

t 1
• Si   0 el proceso no es estacionario en
media.
Procesos de paseo aleatorio
• La varianza;



 E ( x t  E ( x t ))  E   t  j 


 j0

t 1
 t ,0
2
2
 t 1

t 1


2
 E    t  j  2   t  j t  j '  
j , j ' 0
 j0

j j'


 t
2
t 1

E ( t  j )
2
j0
 t es ruido blanco, y E ( t  t  j )  0
j  0
• No es estacionario en varianza; tiene una tendencia
(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocástica.
Procesos de paseo aleatorio
• Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio
• Autocovarianza;
 t ,  E ( x t  E ( x t ))( x t   E ( x t  )) 
  t 1
  t  1

 E     t  j     t   j   



  j  0
 j  0
 
t  1

E ( t  j )
2
j0
   (t   )
2
• La autocovarianza tampoco es constante
Procesos de paseo aleatorio
• Conclusión: Paseo aleatorio no es
estacionar. Esto complica la inferencia. De
todos modos, hay un camino definida de
variación a largo del tiempo.
Procesos de paseo aleatorio
• Si transformamos el proceso a través de una
diferencia, la transformación sería estacionaria.
wt   x t     t
w t es estacionario; es un ruido blanco alrededor de la media,  .
Procesos de paseo aleatorio
• Es importante detectar si un serie está generada
por un pasea aleatorio.
• 1) La función de autocorrelación simple puede
dar una indicación.
 t , 
 t ,
 t , 0 t  , 0
  (t   )
2

  t  (t   )
2
2

(t   )
t (t   )

1

t
• Una correlograma presentará los primeros
coeficientes muy cerca de 1, y esta va
decreciendo suavemente.
Procesos de paseo aleatorio
 x t  c  11 x t  1  u t

 x t  c   21 x t  1   22 x t  2  u t



 x t  c   k 1 x t  1   k 2 x t  2  ...   kk x t  k  u t

• La FAP, resultaría en un primero
coeficiente significativo y cerca de uno,
mientras los siguientes coeficientes serán
cero.
Procesos de paseo aleatorio
• Normalmente un FAS que está
decreciendo muy lento con un primer FAP
cerca uno y los restos cero, indica que
podemos diferenciar para conseguir un
serie temporal estacionario.
Procesos de paseo aleatorio
• Otra manera para saber si se debe diferenciar
una serie temporal son los contrastes de raíces
unitarias.
• Constaste de raíces unitarias. “unit roots”.
Estima la ecuación;
x t   x t 1     t
Y contrastar si H 0 :   1
Procesos lineales
T



• Definición: Un proceso estocástico t t  1
es lineal cuando lo podemos escribir como
una función de una combinación lineal
(posiblemente infinita) de variables
aleatorios de ruido blanco.
x t   t   1 t  1   2  t  2  ...



j0
j
t j
Procesos lineales
• Hay tres tipos de procesos estocásticos lineales;
• Autoregresivas (AR)
• Media móvil (MA)
• ARMA (la combinación de AR y MA)
AR ( p );
x t  1 x t  1   2 x t  2  ...   p x t  p   t
MA ( q );
x t   t   1 t  1   2  t  2  ...   q  t  q
ARMA ( p , q );
x t  1 x t  1  ...   p x t  p   t   1 t  1  ...   q  t  q
 t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).
Procesos lineales
• Se puede introducir una constante  para tener
procesos con una media  0 .
• Se puede expresar los procesos con un
polinomio de operadores de retardos. El
operador de retardos L esta definido por;
Lx t  x t  1
L xt  xt  k
k
• Este operador retarda la serie tantas periodos
como el exponente k indica.
Procesos lineales
• Utilizando el operador de retardos y la
generalización con el constante,  ,
podemos escribir los procesos:
AR ( p );
 p ( L ) xt     t
MA ( q );
x t     q ( L ) t
 p ( L ) x t     q ( L ) t
ARMA ( p , q );
 p ( L )  1  1 L   2 L  ...   p L
p
polinomio
autoregres sivo
 p ( L )  1   1 L   2 L  ...   q L
q
polinomio
media móvil
2
2
• Se puede transformar procesos AR y
ARMA en procesos MA.
Procesos lineales
Teorema de Wold. Cualquier proceso
estocástico estacionario se puede
representar con una suma de dos
procesos.
xt  d t  u t
Donde d t es linealmente determinista y
es un proceso MA ( ) : u   ( L )

t

Donde  t es ruido blanco.

j0
j
 t j
t
ut
Procesos lineales
• El proceso MA ( ) se puede aproximar a través
modelos lineales, cuando el polinomio infinito   ( L )
se puede aproximar bien con un cociente de dos
polinomios en
L :  ( L ) 
q (L)
 p (L)
• Transformaciones puede hacer series
estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.
Procesos autoregresivos (AR)
• Un proceso autoregresivo se puede
escribir,
 p ( L ) xt     t
(1   1 L   2 L  ...   p L ) x t     t
2
p
x t     1 x t  1   2 x t  2  ...   p x t  p  
Procesos autoregresivos (AR)
• Para que un proceso AR sea estacionario el
polinomio en el operador de retardos  p ( L )
asociados al proceso tiene que ser estable, es
decir, al calcular las raíces del polinomio,
 p ( L )  (1   1 L   2 L  ...   p L )  0
2
p
estas tienen de caer fuera del círculo unidad. Los
valores de L que satisfacen esto cumple L  1 .
Procesos autoregresivos (AR)
• Si hay alguno raíz igual a 1 (raíz unitario)
el proceso AR no es estacionario, y no se
pueden expresar como procesos MA ( ) . Si
hay alguna raíz inferior a 1 el proceso será
explosivo y tampoco estacionario.
Procesos autoregresivos (AR)
• Las condiciones para estacionariedad son:
• (necesaria, pero no suficiente):
p

j
1
j 1
p
• (suficiente, pero no necesario):   j
j 1
1
Procesos autoregresivos (AR)
• AR(1) estacionariedad
x t     1 x t 1   t
(1   L ) x t     t
• Condición necesaria y suficiente:
 1
Procesos autoregresivos (AR)
• Un proceso AR (1) estacionario se puede
escribir como un proceso MA ( ) .
xt 

  t
2
(1   L )

 (1   L   L  ...)(    t )
2

1

   t j
j
j0
• Se puede llegar a la misma solución a
través de substitución recursiva.
xt     xt 1   t .
Procesos autoregresivos (AR)
• La solución se usa para calcular los momentos
del proceso. También se puede usar para
enseñar el siguiente resultado, valido por h  0 .
 


2
E ( x t  t  h )  E  
  t   t  1    t  2  ...   t  h   0

 1  

Dado que E ( t  s )  0 para todos t  s .
Procesos autoregresivos (AR)
• El momento de primer orden es;
 
  E ( xt )  E 

1 







 t j  1  
j0


j
(E (x )  E (x
• Con estacionariedad
tenemos el mismo resultado;
t
t 1
)  )
  E ( x t )  E (   x t  1   t )       (1   )
1
Procesos autoregresivos (AR)
• La varianza del proceso es;
2


2
j
 0  E ( xt   )  E     t  j  


 j0



  
2 j
2
j0

2
1
2
• También se puede llegar a este resultado
a través;
 0  V ( x t )  V (   x t  1   t )    0       (1   )
2
2
2
2
1
Procesos autoregresivos (AR)
• La autocovarianza del proceso es,
donde; ~x t indica la desviación con
respecto a la media.
 1  E ( ~x t ~x t  1 )  E ((  ~x t  1   t ) ~x t  1 )   0
 2  E ( ~x t ~x t  2 )  E ((  ~x t  1   t ) ~x t  2 )   1    0
2


   E ( ~x t ~x t   )  E ((  ~x t  1   t ) ~x t   )       0
Procesos autoregresivos (AR)
• La función de autocorrelación simple es;
 

0


• y tiene un decrecimiento exponencial.
• FAP, al otro lado, sólo tiene un coeficiente
diferente de cero. Se puede demostrar con las
ecuaciones de Yule-Walker.
Procesos autoregresivos (AR)
Procesos autoregresivos (AR)
x t     1 x t 1   2 x t  2   t
• AR(2):
(1   1 L   2 L ) x t     t
2
 2 ( L ) xt     t
donde
 2 ( L )  (1   1 L   2 L )
2
• Al calcular las raíces del polinomio
(1   L   L )  0
tendríamos dos soluciones
y hay los siguientes requisitos
(simultáneamente) para tener un
  1
polinomio estable.
2
1
2
2
1
 2  1  1
2  1
Procesos autoregresivos (AR)
• Los resultados para la covarianza de
AR(1) se puede generalizar.
Procesos autoregresivos (AR)
Procesos media móviles (MA(q))
• Un proceso media móvil de orden q;
x t     t   1 t 1   2  t  2  ...   q  t  q
    q ( L ) t
• Estos procesos siempre son estacionarios (los
momentos de primer y segundo orden son
siempre finitas y constantes a largo del tiempo).
• Una condición (que hay que comprobar) para
estos procesos es que son invertibles.
Procesos media móviles (MA(q))
• Esta condición implica que las raíces del
polinomio  ( L ) están fuera del círculo de
unidad. Los procesos MA no invertibles no
permiten una representación
autoregresiva convergente.
q
Procesos media móviles (MA(1))
• MA(1):
x t     t   1 t  1
• La condición de invertibilidad es para un
proceso MA(1) es   1 .
• Esperanza:
  E ( x t )  E (   t   1 t  1 )  
Procesos media móviles (MA(1))
• Varianza:
 0  E ( x t   )  E (  t   1 t  1 )  E (  t )   1 E (  t  1 )  2 1 E (  t  t  1 )
2
2
2
2
2
 1   1  
2
2
• Autocovarianza:
 1  E ( x t   )( x t  1   )   E (  t   1 t  1 )(  t  1   1 t  2 )    1 
2
 2  E ( x t   )( x t  2   )   E (  t   1 t  1 )(  t  2   1 t  3 )   0
  0
  2
Procesos media móviles (MA(1))
• FAS es:
1



    (1   12 )
 0
 1
 2
• La FAP presenta un decrecimiento exponencial;
 1 (1   1 )
k
 kk  
2
2 ( k  1)
1  1
• Se puede llegar a este resultado general con las
ecuaciones de Yule-Walker.
Procesos media móviles (MA(1))
11    
1
1  1
2
 2  1
1
2
 22 
1 
2
1
2
 
1  1  1
2
 3  1  1 2  2 1 2  1  3
3
 33 

4
2
2
1  2 2  2  
2
1

1

 12
1





2
1
2
2
3
 
3

1
1  2  
2
1


1

1
3




2

1  1  1  1
2
4
1
6
1  2 1
2
Procesos media móviles (MA(1))
Procesos media móviles (MA(2))
• Calcular las raíces del polinomio.
(1   1 L   1 L )  0
2
Procesos media móviles (MA(2))
• Para tener un modelos estable;
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
• Función de autocorrelación simple
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(q))
• MA(q) con deriva:
  E ( x t )  E (   t   1 t  1   2  t  2     q  t  q )  
 0  E ( x t   )  E (  t   1 t  1   2  t  2     q  t  q ) 
2
2
 1   1   2     q  
2
2
2
• (el mismo resultado)
2
Procesos media móviles (MA(q))
 1  E ( x t   )( x t     )   E (  t   1 t  1   2  t  2     q  t  q )(  t     1 t    1   2  t    1     q  t    q ) 
 (       1 1     q q   ) 2 si   q

si   q
 0
Procesos media móviles (MA(q))
Procesos autoregresivos media
móviles (ARMA(p,q))
• Un modelo autoregresivo media móvil
(ARMA(p,q)) sigue la forma;
• Es decir, tiene una parte autoregresivo y otra
parte media móvil.
Procesos autoregresivos media
móviles (ARMA(p,q))
• Debemos comprobar si la parte
autoregresiva es estacionaria y la parte
media móvil es invertible.
• Si la parte AR es estacionario, se puede
escribir como un MA ( )
Procesos autoregresivos media
móviles (ARMA(p,q))
• Si la parte MA es invertible, se puede
expresarlo como un AR ( )
Procesos autoregresivos media
móviles (ARMA(p,q))
• Los procesos ARMA tienen un FAS como
la de su parte AR y una
• FAP como su parte MA.
• ARMA tiene FAS y FAP que decrecen
exponencialmente en valor absoluta hacia
cero.
• No se puede determinar el orden.
Procesos autoregresivos media
móviles (ARMA(p,q))
ARMA(1,1)
x t     x t 1   t   1 t 1
1
  (1  1 ) 
1  21 1   1
2
0 
• FAS:
1
2
1

2
 (1   1 1 )(  1   1 )

    1  2 1 1   12
  1   1

 1
 1
ARMA(1,1)
ARMA(p,q)
1
   p (1) 
• Representar con

xt   

j
 t  j      ( L ) t
j0

 0  E ( xt   )   
2
2

j0
2
j
MA ( )
:
Procesos autoregresivos
integrados media móvil;
ARIMA(p,d,q)
• Procesos ARIMA presentan raíces
unitarias en el polinomio autoregresivo; no
son estacionarios. Se puede factorizar  ( L )
a partir de las raíces unitarias. Podemos
escribir; *
d
*
r
 r ( L )  (1  L )  r  d ( L )
r d ( L )
• Donde
no incluye raíces unitarias y
es el número de raíces unitarias.
*
d
Procesos autoregresivos
integrados media móvil;
ARIMA(p,d,q)
• Recuerda el operador de diferencias;
ARIMA(p,d,q)
• Por ejemplo, ARIMA(0,1,0) es un paseo
aleatorio.
ARIMA(p,d,q)
• Si una serie presenta un correlograma
como un AR(1) con   1 ; FAS está muy
cerca 1, y no caen rápidamente.
ARIMA(p,d,q)
• Si aplicamos el operador de diferencia
cuando no es necesario (sobrediferenciar), tendremos un MA(1) que no
es invertible.
• Por ejemplo: Ruido blanco;
ARIMA(p,d,q)
• Cuando el orden de diferencia se ha
decidido
, se puede escribir un
procesos ARIMA como AR ( ) o un MA ( ) .
Procesos estaciónales
• Si tenemos datos con información de varias ocasiones
durante un año, podemos observar estacionalidad, es
decir, un comportamiento económico que depende del
tiempo durante un año. (Ejemplos; temperaturas,
vacaciones, movimientos turísticos). Los procesos
anteriores están pensados para series con sólo una
observación cada año, o series sin estacionalidad.
• El numero de estaciones durante el año llamamos s. Por
ejemplo, S=12 para datos mensuales, o 4 para
trimestrales. Se puede generalizar los procesos explicas
arriba para captar estacionalidad.
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
• Una serie temporal con estacionalidad puede
tener una estructura de dependencia estacional
y otra parte regular (no estacional) que sigue un
• Normalmente estos partes pueden interactuar
en una especificación multiplicativa. Este es un
modelo
Procesos estaciónales
• En estos modelos hay “efectos satélites”.
• Por ejemplo
• Nota el término
que se nota en
FAP y FAS asociados los retardos próximos a
los múltiples de S, pero esto no significa que
tengamos procesos adicionales de MA(0,1) y
SMA(0,1).
Procesos estaciónales
•
•
•
FAS: Se reproduce la parte regular de la FAS
alrededor de los coeficientes estaciónales.
FAP: Se reproduce la parte regular de la FAS
a la izquierda de los coeficientes estaciónales
y la parte de FAP a la derecha.
Signos:
–
–
En FAS se multiplica el signo del coeficientes
estacional por el de regular.
En FAP, si el signo del coeficiente estacional es
positivo se inversa el signo a la parte derecha (FAP
regular) mientras si es negativo, se inversa el de la
izquierda (FAS regular).
Procesos estaciónales
Descargar

Capitulo 8: Introducción a modelos de series temporales