UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Facultad de Ciencias Económicas
Unidad de Postgrado
MAESTRIA EN ECONOMIA CON MENCION EN GESTION Y POLITICA PUBLICA
COEFICIENTE DE DETERMINACION ANALISIS DE VARIANZA
PREDICCION P VALUE
JARQUE VERA RESET RAMSEY
CHOW
RESIDUOS RECURSIVOS
CUSUM
Mag. Renán Quispe LLanos
2011
Ejemplo:
Número de
familia
1
2
3
4
5
6
7
8
9
10
100
Y = Xb + m
Donde :
Y : Consumo
X : Ingreso
Ingreso
X
80
100
120
140
160
180
200
220
240
260
Consumo
Y
70
65
90
95
110
115
120
140
155
150
y
é70 ù
é1
ê65 ú
ê1
ê
ú
ê
ê90 ú
ê1
ê
ú
ê
.
=
ê
ú
ê.
ê.
ú
ê.
ê
ú
ê
ê.
ú
ê.
ê150ú
ê1
ë
û
ë
-1
ˆ
b = ( x ' x ) x' y
x
80 ù
é m1 ù
êm ú
100 ú
β
ê 2 ú
ú
ê m3 ú
120 ú
ê
ú
ú é b1 ù
. úê
+
.
ú
ê
ú
b
ê.
ú
. úë 2 û
ê
ú
ú
. ú
ê.
ú
êm ú
260ú
û
ë 10 û
é
æ1
ç
ê
ç1
ê
ç1
ê
êæ1 1 1 ..............1 öç
-1
÷÷ç .
( x' x) x' y = êçç
êè 80 100 120 .........260 øç .
ç
ê
ç.
ê
ç
ê
è1
ë
-1
80 öù
÷ú
100 ÷ú
120 ÷ú
æn
÷ú
. ÷ú = ç
çå x
÷
è i
. ÷ú
ú
. ÷ú
÷ú
260 øû
åx
åx
-1
ö
1700 ö
÷ = æç10
ç1700 322000 ÷÷ =
2÷
è
ø
1ø
1
1 æ 322000 - 1700 ö æ 0.975757 - 0.005152 ö
çç
÷÷ = çç
÷÷
10 ø è - 0.005152 0.0000303ø
330000 è - 1700
æ 70 ö
ç
÷
ç 65 ÷
÷ æ 1110 ö
æ1..........1 öç .
æåyö
÷=ç
÷÷ç
÷
x ' y = çç
÷
ç 205500 ÷ = çç
80....260
.
ç
÷
÷
è
ø
è
ø
xy
å
è
ø
ç.
÷
ç
÷
ç150 ÷
è
ø
æ 0.975757
bˆ = çç
è - 0.005152
- 0.005152
0.0000303
öæ 1110 ö æ 24.4545 ö æ bˆ1 ö
÷÷çç
÷÷ = çç
÷÷ = çç ÷÷
øè 205500 ø è 0.50909 ø è bˆ2 ø
ESTIMACION DE LA VARIANZA DEL TERMINO DE PERTURBACION
e' e
Y 'Y - b ' X 'Y 132 ,100 - 131 ,754
s =
=
= 132100
10 - 2
(n - k )
n-k
2
m
æ 70 ö
ç
÷
ç 65 ÷
ç.
÷
÷ = 132100 =
y ' y = (70 65 .........150 )ç
ç.
÷
ç.
÷
ç
÷
ç150 ÷
è
ø
b ' x ' y = ( 24 . 4545
æ 1110
0.5091 )çç
è 205500
å
ö
÷÷ = 131764 . 5
ø
2
yi
Reemplazando en la fórmula tenemos:
é 132100 - 131764 . 5 335 . 5
ù
=
= 41 . 9375
ê
ú
10
2
8
ë
û

s =
41 . 94
Calculando Varianza
æ 0.975757
Var b1 = (41.9375)çç
è - 0.005152
- 0.005152 ö
÷÷
0.0000303ø
s b 12 = 41.9375(0.975757) = 40.9209
s
2
b2
= 41.9375(0.0000303) = 0.00127
sˆ b 1 = 6.3969
sˆ b 2 = 0.0356
CONSTRUCCION DE INTERVALOS PARA bI
[
ˆ -s
ˆ +s
ˆ
ˆbit/ 2
bIeb
t
b
1
bi / 2, 1
]
Para un nivel de significación del 5% observando en la
tabla “t” de student:
t(n-k)/2= t (10-2)0.05/2 = t8,0.025= 2.306
b2 Î [0.5091 - 0.0356(2306),0.5091 + 0.0356(2306)]
b2 Î [0.4268,0.5919] con  = 0.05
Otra forma de expresarlo con prob.:
P(0.4268b2 0.5919)=1-0.05=0.95
Dado un coeficiente de confianza del 95% en el
I.p si se construye cien intervalos repetidos con
los límites siguientes 0.4268 y 0.919, en el 95%
de
ellos
estarían
verdadero
parámetro
poblacional.
COEFICIENTE DE DETERMINACION (R2)
Es un indicador de la bondad de ajuste de la línea de
regresión que mide la proporción de la variación total en
la variable dependiente Y, que “se explica” o “se debe a”
la variación de la variable independiente X.
Yi
(Xi, Yi)
Yˆ
Y i - Yˆ i
Yi - Y
Yˆ i - Y
Y
Xi
9
Planteada la relación inicial la misma se mantiene
cuando se establece relaciones a partir de las
sumatorias de sus desviaciones cuadráticas. Por un
proceso matemático particular se da:
å (Y i - Y )
2
=
å (Yi - Yˆ i )
2
ˆi - Y)
+ å (Y
2
SCT = SCR + SCE
SCT: Variación total del Yi observado con respecto
a la media muestral. La suma total de los
cuadrados.
å (Yi - Y )
2
= Y'Y - nY
2
10
SCR: Variación residual o no explicada de los valores de
Y con respecto a la línea de regresión. Suma de los
cuadrados residuales
å (Yi - Yˆ i ) = Y ' Y - bˆ ' X ' Y
2
SCE: Variación de los valores estimados Yi con respecto
a su media. Suma de los cuadrados Explicados
å (Yˆ i - Y )
2
2
ˆ
= b' X ' Y - n Y
(Y ' Y - n Y ) = (Y ' Y - bˆ ' X ' Y ) + (bˆ ' X ' Y - n Y )
2
SCE
SCR
R =
= 1SCT
SCT
2
2
0  R2  1
11
PROPIEDADES :
1. Es una cantidad no negativa
2. Sus límites son 0  R 2  1
Es decir que R varía entre cero y uno
R2=1 cuando el ajuste es perfecto, es decir los valores
observados coinciden perfectamente con la recta
estimada
R20 es decir que no hay relación entre la variable
dependiente y los variables explicativas.
Este R2 no mide el grado de asociación entre x e y, para lo
cual se acude a otro indicador
COEFICIENTE DE CORRELACION
Es una medida de asociación lineal entre dos variables
Poblacional
Cov ( x , y )
=
r =
s2xs2y
r= R
2
Muestral
å (x
(x i
i
- x )(y - y )
i
- x)
n-1
2
(yi - y )
2
n-1
0  r 1
13
PROPIEDADES :
 Sus límites son:
-1  r  1
 Es de naturaleza simétrica, es decir el coeficiente de
correlación entre X y Y (rxy) es igual al coeficiente
se correlación entre Y y X (ryx)
 Si X, Y son estadísticamente independientes y el
coeficiente de correlación es cero, pero si r=0 no
implica necesariamente independencia.
 Es una medida de asociación lineal, es decir mide la
asociación lineal entre dos variables .Negativa(-1) o
positiva (1)
COEFICIENTE DE DETERMINACION MULTIPLE
CORREGIDO
R =
2
2
ˆ
(Y I - Y )
å
å (Y
(Y
å
= 1- Y)
å (Y
i
2
I
i
- Yi )
- Y)
2
2
0 y R 1
2
En la medida que el numero de variables indepencientes se
incrementa, se divide a cada uno de la sumatorias
cuadráticas entre sus grados de libertad, obteniendo
finalmente un cociente de varianzas.
R
2
(Yi - Yˆ )
å
= 1å (Yi - Y )
2
/n - k
2
/n - 1
n
n
R = 12
sˆ
2
sˆ y
n
sˆ m
2
2
(
å
=
Yi - Yˆi
)
2
,
n-k
sˆ y
2
(Y
å
=
- YI )
2
i
n-1
Ejemplo:
ˆ
(
Y
-Y )
å
=
2
R
2
2
ˆ
b ' X ' Y - nY
I
=
............(1 )
2
2
å (YI - Y ) Y 'Y - nY
2
ˆ
s
n
2
R = 1 - 2 .......(2)
sˆ y
ˆ
(
)
Y
Y
å
=
2
ˆs 2 n
i
i
n-k
å (Y - Y )
Y' Y - bˆ ' (X' Y)
=
n-k
2
sˆ y =
2
i
n -1
I
=
Y' Y - nY
n -1
2
Continuando con el ejemplo y remplazando en (1):
131764.5 - 10(111) 1317645 - 123210
=
= 0.96
2
132100 - 10(111)
123210
2
En (2):
41.9375
=1= 0.96
13690
s
2
y
132100 - 8890
=
= 13690
10 - 1
ANALISIS DE VARIANZA
El análisis de varianza tiene por finalidad investigar la
explicación conjunta de todas las variables explicativas
intervinientes en el modelo, a partir del estudio de los
componentes de la variabilidad total.
SCT = SCR + SCE
De donde se construye un estadístico de frecuencia
conocido:
å
2
ˆ
( Yi - Y )
å
k -1
=
2
( Y i - Yˆ i )
ˆb´X ´Y - n Y 2
k -1
2
sˆ u
n-k
18
Planteamos la siguiente tabla:
F uente d e
Variació n
D ebido a x 2 ,...,x n
R esidual
T otal
F=
Sum a d e
C uad rad o s
SC E= bˆ ´ x´Y - n Y
G .L .
2
SC R = Y ´Y - bˆ ( x ´Y )
SC T = Y ´Y - n Y
SCE / k - 1
SCR / n - k
2
K–1
n–k
M ed ia d e
C uad rad o s
SC E/k-1
SC R /n-k
n-1
(valor calculado)
19
Planteamiento de Dócima de Hipótesis
H0: b1 = b2; bk = 0
H1: b1  0, b2  0; bk  0
Bajo el enfoque de la prueba de significancia, se
construye la región crítica de la siguiente manera:
R.C. = { F > Fk-1, n-k (tabla de la F)}
20
Del ejemplo del modelo de Ingreso-Consumo, se realiza los respectivos
cálculos, para hallar el estadístico F:
F=
SCE / k - 1
SCR / n - k
Fc =
å (Yˆ
= å (Y
SCE =
SCR
8 ,552 . 7 /( 2 - 1)
337 . 3 /( 10 - 2 )
i
- Y ) = 8 ,552 . 7
i
ˆ i ) = 337 . 3
-Y
2
2
= 202 . 87
El F calculado, se compara con el de la tabla
F1; 8 ; 0 .05 = 5 . 32  202 . 87 = Fc
Entonces se rechaza la hipótesis nula, es decir que el “Consumo” es
explicado por la variable “Ingreso”.
21
ANALISIS DE VARIANZA PARCIAL
F u en te d e
V a ria c ió n
D e b id o a :
X 1 ,....,x r
D e b id o a :
X 1 ,....,x r ,x r + 1 , ..x r+ s
S u m a d e C u ad ra d o s
G .L .
S C E I=
r – 1
S C E II =
(r – 1)+ s
D e b id o a :
X r+ 1 ,.......,x r+ s
S C E s = S C E II -S C E I
R e sid u a l d e l M o d II
T o ta l
Entonces: FC =
M e d ia d e C u a d ra d o s
s
SCEs / s
S C R II
n – (r+ s)
S C R II / n – (r+ s)
SCT=
n - 1
SCE / s
(que se compara con el de la tabla)
SCR / n - ( r + s )
Consultoria Virgen del Carmen S.A.
22
Docima de Hipótesis
H0: br+1 = br+2=......=bs = 0
H1: br+1  br+2  .....  br+s  0
Bajo el enfoque de la prueba de significancia, se
construye la región crítica de la siguiente manera:
R.C. = { FC > Fs,n-(r+s) (tabla)}
Consultoria Virgen del Carmen S.A.
23
Ejemplo:
Sea los datos sobre consumo privado y sus variables explicativas respectivas.
Y
X1
X2
X3
Año
Consumo
Privado
YND
Precios
Relativos
Tasas de
Interés
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1785
1849
1909
1987
2122
2210
2244
2254
2082
2131
2236
2356
2376
2167
2209
2296
2593
2839
2501
2344
2401
2414
2669
2889
2807
2817
2755
2723
3139
3335
3442
3461
2925
3012
3060
3419
3800
3452
98.4
98.4
98.4
100.5
104.0
104.1
103.0
101.4
101.7
100.0
99.7
100.2
96.7
96.4
94.4
92.0
95.5
97.4
97.8
3.5
1.6
4.9
-3.9
-8.3
-11.9
-2.3
-13.8
-30.0
-17.0
-14.6
-6.1
-6.5
-27.6
-21.2
-34.7
-39.9
-41.5
-88.4
24
Para el modelo de consumo Ingreso los estimadores son:
C = b1 + b2YND
C = 528.78877 + 0.56 YND
tc
(2.84715)
R2 = 83.2 , (dato = 4000)
(9.16902)
F = 84.05
Incorporando las variables
interés (TI):
precios (PR) y tasa de
C = b1 + b2YND + b3PR + b4IT
C = 175.00 + 0.4966YND + 5.0862PR + 2605IT
(6.8825)
(0.6418)
(6.0295)
t19-4, 0.05/2=2.131
La tabla de análisis de varianza será:
Consultoria Virgen del Carmen S.A.
25
F u en te d e
V a ria c ió n
D e b id o a :
YND
S u m a d e C u ad ra d o s
G .L .
M e d ia d e C u a d ra d o s
S C E = 963188.02
2 – 1
S C E = 1002196.15
D e b id o a :
YND, PR, TI
(2 – 1 )+ 2
D e b id o a :
PR, TI
1002196.15-963 188.02
S C R = 155862.6
94348985 – 9334 67891
T o ta l
Entonces: FC
2
3 9 0 0 8 .1 3 / 2 ...(A )
19 - 4
1 5 5 8 6 2 .6 /1 5 ...(B )
= 39 00 8 .1 3
R e sid u a l d e l M o d II
=
A
B
=
19504 . 06
= 1 . 877
1 0 0 2 1 9 15 /3
19 - 1
(que se compara con el de la tabla)
10390 . 84
Consultoria Virgen del Carmen S.A.
26
F2,15; 0.05 = 3.68 (tabla)
Dado que: FC = 1.877 < F2,15; 0.05 = 3.68.
Se concluye que la incorporación de las variables
precios relativos y la tasa de interés general no mejoran
la explicación del modelo estando ya incorporada la
variable ingreso disponible.
Consultoria Virgen del Carmen S.A.
27
“p value”
Es el valor exacto de la probabilidad, obtenida a partir de
la información, el cual nos permite rechazar o no la
hipótesis nula (dado un nivel de significancia) sin
necesidad de recurrir al uso de tablas.
 Si el “p value” < α =1% ó 5%, se rechazará la
hipótesis nula.
 Si el “p value” > α, se aceptará la hipótesis nula.
α = Nivel de significación
28
“p value”
Distribución “t”
5% de área = α
Zona de
Aceptación
“p value”
0
tc
t
Distribución “F”
5% de área =α
Zona de
Aceptación
0
“p value”
Fc
F
29
Por ejemplo, en el modelo Yt = β1 + β2X1t + β3X2t; tenemos las
siguientes salidas:
Dependent Variable: Y
Method: Least Squares
Sample: 1991 1995
Included observations: 5
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
4.000000
4.474930
0.893869
0.4657
X1
2.500000
0.866025
2.886751
0.1020
X2
-1.500000
1.369306
-1.095445
0.3876
R-squared
0.946429
Mean dependent var
4.000000
Adjusted R-squared
0.892857
S.D. dependent var
2.645751
S.E. of regresión
0.866025
Akaike info criterion
2.833904
Sum squared resid
1.500000
Schwarz criterion
2.599567
Log likelihood
-4.084760
F-statistic
17.66667
Durbin-Watson stat
1.666667
Prob(F-statistic)
0.053571
La probabilidad asociada (p value) tanto para el estadístico t, como
para la prueba F, son superiores a 0.05  Se acepta la hipótesis nula de
significancia individual y significancia conjunta, respectivamente
30
El estadístico Jarque Bera.Determina como se encuentra afectado su valor por la presencia de
un mayor apuntamiento (mayor a 3) o menor asimetría (cercano a
cero) de las perturbaciones.
JB = n
é
2
êA
ê
ê 6
ë
+
(C - 3 )
2
24
ù
ú
ú
ú
û
A significa asimetría y C apuntamiento o curtosis
[E ( x - m ) ]
A =
[E ( x - m ) ]
3
2
2
3
C=
E (x - m )
4
[E ( x - m ) ]
2
4
Hipótesis:
H0: Las perturbaciones tienen una distribución normal
H1 : Las perturbaciones no tienen una distribución normal
31
El estadístico Jarque Bera.- Permite verificar la normalidad de los
residuos. La Ho es que los residuos se distribuyen normalmente.
La probabilidad asociada al estadístico Jarque-Bera es mayor al 5%,
entonces no se puede rechazar la Ho de normalidad de los residuos.
32
Ejemplo (pregunta del examen):
La probabilidad asociada al estadístico Jarque-Bera es mayor al 5%,
entonces no se puede rechazar la Ho de normalidad de los residuos.
33
Test de Reset de Ramsey
Se realiza en dos etapas:
1º estima en modelo sujeto a análisis en su forma original:
Y = b1 + b 2 X 2 + b 3 X 3 + m
2º se toma la serie estimada por los parámetros de la regresión anterior y
se anexan sus potenciales enteras a la misma regresión como parámetros
auxiliares
ˆ +  3Y
ˆ + ...) + u = X b + Z  + m
Y = b1 + b 2 X 2 + b 3 X 3 + ( 2 Y
2
3
ˆ 2 = ( aˆ 1 + aˆ 2 X 2 + aˆ 3 X 3 ) 2 ; Y
ˆ 3 = ( aˆ 1 + aˆ 2 X 2 + aˆ 3 X 3 ) 3 ; ...
Y = aˆ 1 + aˆ 2 X 2 + aˆ 3 X 3 ; Y
Estadístico de prueba:
(R
)/número de regresores
-R
F =
(1 - R
)( n - numero de parametros en el
2
nuevo
2
viejo
2
nuevo
H0: El modelo está correctamente especificado
H1: El modelo no está correctamente especificado
nuevos
modelo
nuevo
)
ˆ +  3Y
ˆ + .... = 0
 = 2Y
2
  0
3
34
Ejemplo
En un modelo sobre el fondo “Afuture” (Yt) en función a las tasas
anuales de retorno (Xt), obtenemos el test de Ramsey:
H0: El modelo está correctamente especificado
H1: El modelo no está correctamente especificado
Ramsey RESET Test:
F-statistic
1.164495
Probability
0.359856
Log likelihood ratio
3.066156
Probability
0.215870
El test de Reset Ramsey indica que añadiendo 2 términos al test “Y2”,
“Y3“ el valor del estadístico “F” es 1.16 y la probabilidad asociada al
error de rechazar la hipótesis nula cuando es verdadera es de 35.99%
mayor al 5%; por lo tanto se acepta que el modelo está correctamente
especificado.
35
Test de Chow (Contraste de Cambio Estructural)
El modelo restringido (MR) es:
y t = X tb + m t
t = 1, 2 ,  , T1 , T 2 ,  T
'
El modelo sin restringir (MSR) es :
Yt = X tb1 + m t
t = 1, 2 ,  , T1
'
Yt = X tb 2 + m t
t = T2 ,  , T
'
El estadístico F:
SRR - (SR
FC =
SR
1
1
+ SR
k
+ SR
2
)

F( k , n - 2 k )
2
n - 2k
H0: Ausencia de cambio estructural
H1: Presencia de cambio estructural
SRR: suma residual restringida es la que proviene de la estimación del modelo
restringido (MR)
SR1 y SR2: suma residual sin restringir es el agregado de las sumas residuales de
cada una de las regresiones de las submuestras
36
Ejemplo (pregunta del examen):
Probamos la posibilidad que exista un quiebre estructural en el año 1996:
Chow Breakpoint Test: 1996
F-statistic
6.936682
Probability
0.043625
Log likelihood ratio
24.85794
Probability
0.000054
Rechazamos la hipótesis de que no hay cambio estructural al 95% de
confiabilidad. Por lo tanto, concluimos que en 1996 se produjo un cambio
estructural.
37
Residuos Recursivos (Contraste de Estabilidad)
Se obtienen a partir de una estimación recursiva de los parámetros b del modelo
(
'
bˆ r -1 = X r -1 X r -1
)
-1
'
X r -1 Y r -1
Y r - X r bˆ r -1
'
wr =
1+ X
'
r
(X
'
r -1
X r -1
)
-1
Xr
w  N (0 , s I )
2
H0: Los parámetros b son estables en el tiempo
H1: Los parámetros b no son estables en el tiempo
38
Residuos Recursivos
Esquemáticamente el proceso se pude describir a partir del siguiente gráfico
X1’
X2’
...
bˆ r-1
Yˆr
wr
bˆ r
Yˆr + 1
wr+1
bˆ n-1
Yˆn
wn
Xr-1’
Xr’
...
...
Xn-1’
39
Contraste de Suma Acumulada (Test Cusum)
Consiste en la acumulación progresiva de los residuos recursivos que
posteriormente se normalizan dividiéndolos entre la estimación insesgada de la
desviación típica de la perturbación (S)
r = k+1, k+2, ... , n
r
åw
Wr =
Donde:
S=
j
j= k +1
S
SCR
n-k
Debe oscilar entre:
k , a
n - k

k , - a
n-k

y
y
n , 3 a
n , - 3a
n - k
n-k


H0: Los parámetros b son estables en el tiempo
H1: Los parámetros b no son estables en el tiempo
40
Contraste de Suma Acumulada (Test Cusum)
La representación gráfica de este contraste dibujaría los residuos recursivos
sobre el gráfico siguiente:
3a
a
Wr
n - k
n - k
k
-a
- 3a
n
r
n - k
n -k
41
Ejemplo (pregunta del examen):
El estadístico CUSUM se mantiene dentro de las bandas de confianza, con lo
cual se puede afirmar que los parámetros son estables a lo largo del período de
análisis en un 95% de confianza.
42
Contraste de Suma Acumulada de Cuadrados
(Test Cusum2)
Utiliza la suma acumulada del cuadrado de los residuos recursivos
(numerador) y la Suma de Cuadrados de la totalidad de los Residuos
Recursivos (denominador)
r
åw
Sr =
2
j
j= k +1
r = k+1, k+2, ... , n
n
å
w
2
j
j= k +1
El valor esperado del estadístico oscila entre cero y uno; así, E(Sr) = 0
cuando
r = k, y, cuando r = n, E(Sr) = 1.
43
Contraste de Suma Acumulada de Cuadrados
(Test Cusum2)
Sr
E(Sr) + C0
E(Sr)
k
n
r
E(Sr) - C0
44
Ejemplo (pregunta del examen):
El estadístico CUSUM2 se mantiene dentro de las bandas de confianza, se afirma
que los parámetros son estables a lo largo del período de análisis en un 95% de
confianza.
45
PREDICCIÓN EN EL MODELO LINEAL
Predicción en el Modelo de
Regresión Lineal Simple
Predicción en el Modelo de
Regresión Lineal Múltiple
Condiciones de fiabilidad
Predicción media e
individual
Predicción por
intervalos
Error de Predicción y su
varianza
Evaluación de la Bondad
predictiva del modelo
Consultoria Virgen del Carmen S.A.
46
PREDICCION
Modelo:
Y = b 1 + b 2 X 2 + ... + b k X k + m
Modelo estimado:
ˆ = bˆ 1 + bˆ 2 X 2 + ... + bˆ k X k = X ' b
Y
(
A. Predicción Puntual de E Y
ˆ n +1
)
La predicción puntual es la misma para un valor particular como para el valor
promedio de la variable
'
'
'
ˆ
ˆ
ˆ
E ( Y n +1 ) = E ( X n +1 b ) = X n +1 E (b ) = X n +1 b
Las desviaciones standart son diferentes:
2
Para el valor promedio es
sˆ E ( Yˆ ) = sˆ C bˆ = s m
n +1
Para el valor particular es
-1
C ´( x´ x ) C
s Y n + 1 = s m 1 + C  ( X X ) C
-1
47
B. Intervalo de Confianza de una predicción (α=Nivel de
significancia): Para el valor promedio
'
ˆ
E ( Y n +1 ) Î [ X n +1bˆ  s E ( Yˆ
t
n - k , 2
n +1 )
]
Para un valor particular
E (Yˆn +1 ) Î [ X
'
n +1
bˆ  s ( Yˆ
t
n - k , 2
n +1 )
]
Con “n-k” g.l. y con un nivel de significancia 
48
Ejemplo:
Sea los datos sobre consumo privado (y) y sus variables
explicativas respectivas: X1: Ingreso disponible (YND),
X2: precios relativos (PR) y X3: tasas de interés (IT).
El modelo con las variables Y y X1 será:
C = b1 + b2YND
C = 528.78877 + 0.56YND
tc (2.84715)
(9.16902)
( x´ x )
-1
æ 3 . 009163208
= çç
è - 0 . 000987868
- 0 . 000987868 ö
÷÷
0 . 00000033
ø
49
R2 = 83.2 , (YNDt+1 = 4000)
E (C n +1 ) = C n +1 = bˆ 1 + bˆ 2 ( 4000 ) = (1
528 . 7887 ö
4000 )æç
÷ = 2784.5
0
.
56393
è
ø
El Intervalo de Confianza para el valor promedio es:
[
ˆ n +1 ) Î 2784 . 5  s ˆ t 19 - 2 ,  / 2
E (C
E ( C n +1 )
]
dado: t19-2,0.05/2=2.093
sˆ E (Cˆ ) = 107 . 0653
n +1
(1
3 . 009163
4000 )æç
è - 0 . 000987
- 0 . 000987 ö æ 1 ö
= 78 . 6766
0 . 00000 ÷ø çè 4000 ÷ø
Entonces:
[2784.5  2.093(78.68)] = [261982, 294917]
50
Error de Predicción
se define como la diferencia entre el valor de la variable a
predecir y la predicción obtenida:
ˆ n +1 = X n +1b + m n +1 - X n +1bˆ
m n +1 = Y n +1 - Y
las fuentes del error de predicción son:
a.
El error en la estimación del vector β
b.
El error en la predicción del vector Xn+1
c.
El error estocástico inherente al modelo, m n +1
Consultoria Virgen del Carmen S.A.
51
El coeficiente de Theil (U).Fórmula de cálculo:
æ
ö
Y
Y
t
åç
t ÷
n t =1 è
ø
1
U =

æ
ö
Y
t
åç ÷
n t =1 è
ø
1
Donde:

n
n

Yt :
Yt :
2
+
1
n
2
n
2
(
)
Y
å t
t =1
Valor estimado de Yt
Valor observado de Yt
52
El coeficiente de Theil (U).- Mide la calidad del modelo para predecir. Oscila
entre 0 y 1. Si U = 0, existe un ajuste perfecto y el modelo es bueno para
predecir. Si U = 1, el modelo es muy malo para predecir.
12
Forecast: YF
Actual: Y
Sample: 1991 1996
Include observations: 5
10
8
Root Mean Squared Error
Mean Absolute Error
Mean Abs. Percent Error
Theil Inequality Coefficient
Bias Proportion
Variance Proportion
Covariance Proportion
6
4
2
0
-2
1 9 91
1 9 92
1 9 93
YF
1 9 94
1 9 95
0.547723
0.400000
17.91667
0.059132
0.000000
0.013764
0.986236
1 9 96
± 2 S.E.
En este caso el coeficiente de Theil es 0.059, es pequeño, por lo tanto el
modelo es bueno para predecir.
53
Ejemplo (pregunta del examen):
En este caso el coeficiente de Theil es 0.0118, es pequeño, por lo tanto
el modelo es bueno para predecir.
54
Descargar

2 - anova prediccion jv test ramsey