LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
Vamos a considerar el caso general donde hay k – 1 variables explicativas. Para la prueba
F de bondad de ajuste de la ecuación, la hipótesis nula es que el modelo no tiene ninguna
capacidad explicativa.
2
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
Esta secuencia describe dos pruebas F de bondad de ajuste en un modelo de regresión
múltiple. La primera de ellas relacionada a la bondad de ajuste de la ecuación como tal.
1
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
Por supuesto, esperamos rechazarla y concluir que el modelo sí tiene cierto poder
explicativo.
3
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
El modelo no tendrá poder explicativo si resulta que Y no está relacionada con ninguna de
las variables explicativas. Po lo tanto, en términos matemáticos la hipótesis nula es que
todos los coeficientes 2, ..., k son cero.
4
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
La hipótesis alternativa es que al menos uno de estos ceoficientes  es diferente de cero.
5
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
En el modelo de regresión multiple existe una diferencia entre el papel de la prueba F y la
prueba t. La prueba F analiza el poder explicativo conjunto de las variables, mientras que la
prueba t prueba el poder explicativo individualmente.
6
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
En el modelo de regresión simple la prueba F era equivalente a la prueba t (de dos colas)
del coeficeinte de la pendiente, porque el ‘grupo’ consiste en una sola variable.
7
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
ESS
F ( k  1, n  k ) 
RSS
ESS
 TSS
RSS
TSS
( k  1)
(n  k )
( k  1)
R 2 ( k  1)

2
(
1

R
) (n  k )
(n  k )
El estadítico F para la prueba fue definido en la última presentación del Capítulo 2. ESS es
la suma explicada de cuadrados y RSS es la suma del cuadrado de los residuales.
8
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
ESS
F ( k  1, n  k ) 
RSS
ESS
 TSS
RSS
TSS
( k  1)
(n  k )
( k  1)
R 2 ( k  1)

2
(
1

R
) (n  k )
(n  k )
Puede ser expresado en términos de R2 al dividir el numerador y el denominador entre TSS,
la suma total de cuadrados.
9
LA PRUEBA F DE BONDAD DE AJUSTE
Y   1   2 X 2  ...   k X k  u
H 0 :  2  ...   k  0
H 1 : at least one   0
ESS
F ( k  1, n  k ) 
RSS
ESS
 TSS
RSS
TSS
( k  1)
(n  k )
( k  1)
R 2 ( k  1)

2
(
1

R
) (n  k )
(n  k )
ESS / TSS es la definición de R2. RSS / TSS es igual a (1 – R2). (Vea la última presentación
del Capítulo 2.)
10
LA PRUEBA F DE BONDAD DE AJUSTE
S   1   2 ASVABC   3 SM   4 SF  u
El modelo de asistencia educativa será utilizado como ejemplo. Vamos a suponer que S
depende de ASVABC, el puntaje de habilidad, de SM, y de SF, el mayor grado alcanzado por
la madre y el padre de los encuentados, respectivamente.
11
LA PRUEBA F DE BONDAD DE AJUSTE
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
La hipótesis nula para la prueba F de bondad de ajuste es que los tres coeficientes de las
pendientes son iguales a cero. La hipótesis alternativa es que por lo menos uno de ellos no
es diferente de cero.
12
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Aquí se presenta el resultado de la regresión al utlizar la Base de Datos 21.
13
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
ESS /( k  1)
F ( k  1, n  k ) 
RSS /( n  k )
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
En este ejemplo, k – 1, el número de grados de libertad, es igual a 536.
14
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
ESS /( k  1)
F ( k  1, n  k ) 
RSS /( n  k )
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
El numerador del estadístico F es la suma explicada de cuadrados dividida entre k – 1. En
el resultado de Stata esto números están dados por el Modelo row. these numbers are given
in the Model row.
15
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
ESS /( k  1)
F ( k  1, n  k ) 
RSS /( n  k )
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
El denominador es la suma del cuadrado de los residuales dividido entre el número de
grados de libertad restante.
16
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
ESS /( k  1)
F ( k  1, n  k ) 
RSS /( n  k )
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
Por lo tanto, el estadístico F es 104.3. Todos los programas estadísitcos serios lo calculan
por ti, como parte del diagnóstico en el resultado de una regresión.
17
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
El valor crítico de F(3,536) no está dado en la tablas F, pero sabemos que debe ser menor
que F(3,500), que está dado. En el nivel de 0.1%, esto es 5.51. Por consiguiente,
rechazamos facilmente H0 con un nivel de 0.1%.
18
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
Este resultado podría haber sido anticipado porque ASVABC y SF tienen una t estadística
altamente significativa. Por lo que sabíamos que 2 y 4 no diferentes de cero.
19
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
Es inusual que el estadístico F no sea significativo si algunos de los estadíticos t lo son.
Sin embargo, ello puede pasar en principio. Suponemos que corremos una regresión con
40 variables explicativas y ninguna es determinante en la variable dependiente.
20
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
A continuación, el estadístico F debe ser lo suficientemente menor para que H0 no sea
rechazada. Sin embargo, si estás desarrollando una prueba t en los coeficientes de la
pendiente con un nivel de 5%, con un 5% de probabilidad de error Tipo I , en promedio 2 de
40 variables tendrán coeficientes significativos.
21
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
Sin embargo, lo opuesto podría pasar. Vamos a suponer que tenemos un modelo de
regresión múltiple que está perfectamente especificado y con una R2 elevada. Deberíamos
esperar tener un estadístico F significativo.
22
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
No obstante, si las variables explicativas están altamente correlacionadas y el modelo es
sujeto de multicolinearidad, el error estandard de los coeficientes de la pendiente podrían
ser tan grandes que ningúno de los estadísticos t sea significativo.
23
S   1   2 ASVABC   3 SM   4 SF  u
H0 : 2  3  4  0
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Fcrit,0.1% ( 3,500)  5.51
1181 / 3
F ( 3,536) 
 104.3
2024 / 536
En esta situación deberíamos saber que nuestro modelo es bueno, pero no estamos en una
posición para pinpoint las contribuciones hechas individualmente por las variables
explicativas.
24
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
Ahora pasamos a la otra prueba F de bondad de ajuste: es una prueba del poder
explicativo conjunto de un grupo de variables cuando son añadidas a un modelo de
regresión .
25
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
Por ejemplo, en la especificación original, Y puede ser escrito como una función simple de
X2. En la segunda, añadimos X3 y X4.
26
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
La hipótesis nula para la prueba F es que X3 y X4 no pertenecen al modelo. La hipótesis
alternativa es que al menos una pertenece, tal vez la dos.
27
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
Para esta prueba F y muchas más que nos econtraremos, es útil pensar en el estadístico F
con una estructura similar a la de arriba.
28
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
The ‘improvement’ es la reducción de la suma de cuadrados cuando se hace el cambio, en
este caso, cuando se agrega el grupo de nuevas variables.
29
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
El ‘costo’ es la reducción de los grados de libertad que quedan después de hacer el cambio.
En este caso es igual al número de nuevas variables añadidas, porque es el número de
nuevo parámetros que son estimados.
30
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
(Recordemos que el número de grados de libertad en una ecuación de regresión es el
número de observaciones menos el número de parametros estimados. En este ejemplo,
caerá de n – 2 a n – 4 cuando X3 y X4 son añadidas.)
31
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
Lo que permanece sin explicación es la suma del cuadrado de los residuales después de
hacer el cambio.
32
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
Los ‘grados de libertad restantes’ es el número de grados de libertad restantes después de
hacer el cambio.
33
. reg S ASVABC
Source |
SS
df
MS
-------------+-----------------------------Model | 1081.97059
1 1081.97059
Residual | 2123.01275
538 3.94612035
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
274.19
0.0000
0.3376
0.3364
1.9865
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.148084
.0089431
16.56
0.000
.1305165
.1656516
_cons |
6.066225
.4672261
12.98
0.000
5.148413
6.984036
------------------------------------------------------------------------------
Ilustraremos la prueba con un ejemplo de asistencia educativa. Esta es al regresión de S
con base en ASVABC utlizando la Base de 21. Haremos una nota sobre la suma de los
residuales al cuadrado.
34
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Ahora agregamos el grado máximo completado por cada pariente. ¿La educación de los
padres tiene un impacto significativo? Podemos observar que una prueba t mostrará que
SF tiene un coeficiente altamente signficativo, pero de todos modos llevaremos a cabo la
prueba.
35
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
La mejora en el ajuste al añadir las variables de los padres es la reducción en la suma del
cuadrado de los residuales.
36
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
El costo son 2 grados de libertad debido a que se estimaron 2 parámetros adicionales.
37
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
Lo que permanece sin explicación es la suma de los residuales al cuadrado después de
añadir SM y SF.
38
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
El número de grados de libertad que permanece es n – k, esto es, 540 – 4 = 536.
39
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
El estadístico F es 13.16.
40
Y  1   2 X 2  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 3  4  0
H 1 :  3  0 or  4  0 or both  3 and  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 2 ( 2123.0  2023.6) / 2
F ( 2,540  4) 

 13.16
RSS 2 (540  4)
2023.6 / 536
Fcrit,0.1% ( 2,500)  7.00
El valor crítico de F(2,500) con un nivel de 0.1% es 7.00. El valor crítico de F(2,536) debe ser
menor, por lo que rechazamo H0 y concluimos que las variables de la educación de los
padres tienen gran poder explicativo.
41
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
Esta presentación concluirá al mostar que las pruebas t son equivalentes a las pruebas F
marginales cuando el grupo adicional de variables consiste en una sola variable.
42
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
Suponemos que en el modelo original Y es una función de X2 y X3, y en el modelo revisado
se agrega X4.
43
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
La hipótesis nula para la prueba F del poder explicativo del grupo adicional de variables es
que la nuevos coeficientes de las pendientes son iguales a cero. Por supuesto, sólo existe
un nuevo coeficiente de la pendiente, 4.
44
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
La prueba F tiene la estructura usual. Esto lo demostraremos con un modelo de asistencia
educativa, donde S depende de ASVABC y SM en el modelo original y, también, de SF en el
modelo revisado.
45
. reg S ASVABC SM
Source |
SS
df
MS
-------------+-----------------------------Model | 1135.67473
2 567.837363
Residual | 2069.30861
537 3.85346109
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 2,
537)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
147.36
0.0000
0.3543
0.3519
1.963
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1328069
.0097389
13.64
0.000
.1136758
.151938
SM |
.1235071
.0330837
3.73
0.000
.0585178
.1884963
_cons |
5.420733
.4930224
10.99
0.000
4.452244
6.389222
------------------------------------------------------------------------------
Esta es la regresión de S con base en ASVABC y SM. Haremos una nota de la suma de los
residuales al cuadrado.
46
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
Ahora, añadimos SF y, nuevamente, hacemos nota de la suma de los residuales al
cuadrado.
47
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
La mejora al añadir SF es la reducción en la suma de los residuales al cuadrado.
48
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
El costo es sólo el grado de libertad que perdimos al estimar 4.
49
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
Lo que permanece sin explicación es la suma de los residuales al cuadrado después de
añadir SF.
50
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
El número de grados de libertad que queda después de añadir SF es 540 – 4 = 536.
51
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
Por lo tanto, el estadítico F es 12.10.
52
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
F (1,500)crit,0.1%  10.96
El valor crítico de F con un nivel de significancia de 0.1% y con 500 grados de libertad es
10.96. El valor crítico con 536 grados de libertad debe ser menor, por lo que rechazamos H0
con un nivel de 0.1%.
53
Y  1   2 X 2   3 X 3  u
RSS1
Y  1   2 X 2   3 X 3   4 X 4  u
RSS2
H0 : 4  0
H1 :  4  0
improvement
F(cost, d.f. remaining) =
remaining
unexplained
cost
degrees of freedom
remaining
( RSS1  RSS 2 ) 1 ( 2069.3  2023.6) / 1
F (1,540  4) 

 12.10
RSS 2 (540  4)
2023.6 / 536
F (1,500)crit,0.1%  10.96
La hípótesis nula que estamos probando es exactamente igual que la prueba t de “dos
colas” sobre el coeficiente SF.
54
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
Fcrit,0.1%  10.96
Vamos a desarrollar la prueba t. El estadístico t es 3.48.
55
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
Fcrit,0.1%  10.96
tcrit,0.1%  3.31
El valor crítico con un nivel de 0.1% y 500 grados de libertad es 3.31. El valor crítico con
536 grados de libertad debe ser menor. Por lo que rechazamos H0 nuevamente.
56
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
Fcrit,0.1%  10.96
tcrit,0.1%  3.31
Puede demostrase que el estadístico F para la prueba F del poder explicativo de un ‘grupo’
de variables debe ser igual al cuadrado del estádístico t para esa variable. (La diferencia en
el último dígito es debido al error de redondeo.)
57
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
También se puede ver que el valor crítico de F debe ser igual al cuadrado de los valores
críticos de t. (Los valores críticos mostrados corresponden a 500 grados de libertad, pero
esto también debe ser cierto para 536 grados de libertad.)
58
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
Por lo tanto, las conclusiones de las dos pruebas deben coincidir.
59
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
Estos resultados significan que la prueba t del coeficiente de una variable es una prueba de
su poder explicativo marginal, después que todas las otra variables fueron incluidas en la
ecuación.
60
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
Si al variable está correlacionada con una o más variables, su poder explicativo marginal
puede ser muy bajo, incluso si pertenece originalmente al modelo.
61
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
Si todas las variables están correlacionadas, es posible que todas tenga un poder
explicativo muy bajo y que para ninguan de ellas la prueba t sea significativa, incluso si la
prueba F para el poder explicativo conjunto sea altamente significativo.
62
. reg S ASVABC SM SF
Source |
SS
df
MS
-------------+-----------------------------Model | 1181.36981
3 393.789935
Residual | 2023.61353
536 3.77539837
-------------+-----------------------------Total | 3204.98333
539 5.94616574
Number of obs
F( 3,
536)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
104.30
0.0000
0.3686
0.3651
1.943
-----------------------------------------------------------------------------S |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.1257087
.0098533
12.76
0.000
.1063528
.1450646
SM |
.0492424
.0390901
1.26
0.208
-.027546
.1260309
SF |
.1076825
.0309522
3.48
0.001
.04688
.1684851
_cons |
5.370631
.4882155
11.00
0.000
4.41158
6.329681
------------------------------------------------------------------------------
F (1,536) 
( 2069.3  2023.6) / 1
 12.10
2023.6 / 536
3.482  12.11
tcrit,0.1%  3.31
Fcrit,0.1%  10.96
3.312  10.96
Si este es el caso, se dice que el modelo sufre del problema de multicolinearidad discutido
en capítulos previos.
63
Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for
personal use. Traducido por Diego Forcada Gallardo
22.08.06
Descargar

No Slide Title