Capitulo 10: La metodología
Box-Jenkins
Identificación
Estimación
Validación
Predicción y evaluación de capacidad
de predecir.
Información
• Estos transparencias no son completas.
• La idea con las transparencias es dar una
estructura general y asegurar que gráficos
y ecuaciones están reproducidos
correctamente.
• Cada estudiante debe tomar notas
adecuadas para completar las
transparencias.
La metodología Box-Jenkins
• Etapas:
•
•
•
•
Identificación
Estimación
Validación
Predicción
Identificación
• Detectar que modelo sigue la serie;
identificaren p , d , q el modelo ARIMA.
• Transformación de Box-Cox para
conseguir una serie estacionar en
varianza y aplicar diferencias (para
identificar d ).
Identificación
• 1. Transformación de Box-Cox, estudiar FAS y
FAP. Si estos indican un comportamiento típico
de paseo aleatorio tenemos una síntoma de un
proceso no estacionario y aplicamos diferencias,
es decir d  1
Identificación
2. Volvemos a estudiar FAS y FAP y
aplicamos diferencias d  2 (etc) hasta
FAS y FAP no tengan la indicación de un
paseo aleatorio.
3. Entonces podemos identificar los ordenes
de p , q en el modelo ARIMA.
Identificación
4. Si hemos hecho la diferencia cuando no era
necesario tenemos un proceso media móvil no
invertible.
Principio de parsimonia; Preferimos un modelo
con pocos parámetros para estimar. Si, a partir
de FAS y FAP, podemos identificar dos
modelos diferentes, elegimos el modelo con
menos parámetros.
Estimación
• Cuando hemos identificado el modelo ARMA
estacionario, (después de la transformación),
podemos estimar el modelo;
 p ( L ) wt     q ( L ) t
• Minimizar la suma de los errores cuadrados.
Problema: Los ecuaciones son no lineales en
los parámetros, excepto para un modelo AR. En
este caso podemos usar MCO.
Estimación
• Cuando hay una estructura MA o efectos
multiplicativos entre la parte estacional y
el regular, la función a minimizar es no
lineal al respecto a los parámetros.
• Entonces hay que aplicar optimización
numérica iterativa, como por ejemplo los
algoritmos Gauss-Newton, NewtonRapson o l’Scoring.
Estimación
•
t
Los primeros parámetros de
depende
de valores que no tenemos en la muestra. Por
ejemplos ARMA(1,1):
 1  w1   w0   0
• Dos soluciones:
Estimación condicional: Asigna a los valores,
desconocidas su valor esperado.
w 0  media muestral ,  0  0
Estimación no condicionada: Dejar el modelo
predecir, “back forecasting”.
w0 ,  0
Validación
• Contrastar requisitos básicos del modelo y
determinar cual de los modelos que es
mejor (si hay varios candidatos).
Validación
1. Significación de los parámetros
estimados. Si el proceso es no lineal o
la variable endógena (retardada)
aparece como variable explicativa, (AR)
t-estadística, F (conjunta) no es ideal,
pero si tenemos una muestra
relativamente grande, podemos
aproximar con la distribución normal
para t-ratios.
Validación
2. Cumplimiento de los condiciones de
invertibilidad y estacionariedad. Si no es así
tenemos un error de especificación.
Nota: Para hacer la identificación, estimación y
contrastes de significación de parámetros
están hecho bajo el supuesto de
estacionariedad (del modelo transformado).
Validación
3. Matriz de correlación entre los
parámetros estimados. A partir de la
matriz de varianza y covarianza se
puede obtener un matriz de correlación.
Ningún coeficiente de esta matriz debe
tener un valor más grande que 0.7 en
valor absoluto. Si no, los parámetros
explican prácticamente la misma serie.
4. FAS y FAP de los residuos. Las FAS y FAP de
los residuos debe mostrar un comportamiento
de ruido blanco.
En el caso contrario esto comportamiento debe
ser incluida en el modelo.
Nota: Hay casos cuando coeficientes en FAS y
FAP son significativos por aleatoriedad, es
decir, no tiene un significativo claro.
Validación
5. Contraste de Box-Pierce.
Hasta M retardos los residuos presentan
una estructura ruido blanco.
Donde  j es FAS estimado de los
residuos y k el número de
parámetros en el modelo original
(p+q+P+Q).
Este contraste es sesgado hacia el no
rechace de H 0 para muestras
pequeñas.
Validación
6. Contraste de Ljung-Box.
Validación
• Elegir entre modelos
1. Elegir el modelo con menor suma de los
cuadrados de los errores o menor varianza
residual:
donde k es el número de parámetros
estimados.
Problema: Si añadimos regressores innecesarias,
por ejemplo términos AR redundantes, esto
reduce la suma.
Validación
2. Utilizar criterios de información como AIC, BIC
(SC).
Estos criterios penalizan la introducción de
regressores innecesarias.
Validación
3. Elegir modelos a partir de capacidad de
predecir.
Los modelos se estiman reservando una
parte de observaciones al final (por
ejemplo, los últimos años) para validar la
capacidad de predecir.
Predicción
• Una de las aplicaciones más importantes de
modelos unívariados de series temporales es la
predicción.
Predicción
• Predicción puntal.
• Podemos actualizar la expresión de un modelo ARMA
para T+1;
• y mirar la esperanza condicionada a
tener una expresión para la predicción;
para
Predicción
• Para dos periodos (h=2);
• y mirar la esperanza condicionada a
Predicción
• Generalmente, para h
periodos;
• Para la predicción
substituimos los
parámetros desconocidas
con los parámetros
estimadas y lo mismo con
los errores,
donde
es la
predicción (fitted value;
ajuste) del modelo.
Predicción
Predicción
• Predicción por intervalo.
• Un modelo
una
, se puede representar con
Predicción
• Actualizando para T+h;
• Aplicando esperanzas tenemos la predicción;
• Esto da el mismo resultado como predicción puntual,
pero podemos encontrar la varianza de los errores de la
predicción, que necesitamos para hacer el intervalo.
Predicción
• Con estos dos expresiones tenemos el error;
• con la varianza;
Predicción
• La varianza se hace más grande cuando aumenta la
horizonte de predicción. (¡Es más difícil predecir más
lejos en el futuro!)
• Si supongamos que
tiene una distribución normal,
los mismo tendrá el error de la predicción y la predicción
por intervalo, con un nivel de confianza de 95 %,
realizada en el momento T, con un horizonte de
predicción h, es,
• Para la predicción substituimos los parámetros
desconocidas con los parámetros estimadas.
Predicción
• [EJEMPLO 34]
Predicción
• Para modelos estacionarios la varianza del error
de la predicción se puede aproximar con;
• que coincide con la varianza de un proceso
ARMA.
Predicción
• [EJEMPLO 37]
Predicción
•
Evaluación de la capacidad de predecir
•
Dividir la muestra en dos partes; una para
estimación
(
primeros observaciones) y una
para evaluar la capacidad de predecir.
Estima el modelo y calcula la predicción para
los periodos no usadas.
Compara la predicción con valores reales. El
error del pronostico es
•
•
Predicción
• Hay varias medidas para cuantificar la magnitud
del error;
Predicción
• Alternativos si lo interesante es predecir un
periodo especifico (a largo plazo), es decir la
capacidad de predecir un, dos, tres periodos
(corto plazo) a lo mejor no es interesante);
Descargar

Predicción