PRUEBA t DE UNA HIPÓTESIS RELACIONADA A UN COEFICIENTES DE
REGRESIÓN
s.d. of b2 conocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
b2   2
0
z 
s.d.
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
El diagrama resume el procedimiento para llevar a cabo una prueba, con significancia del
5%, para el coeficiente de una regresión, bajo el supuesto de que conocemos su desviación
estándar.
1
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
Esta es un supuesto poco real. Usualmente, tenemos que estimarlo con el error estándar, y
es lo que usamos al construir el estadístico de prueba en vez de la desviación estándar.
2
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
Debido a que tenemos que reemplazar la desviación estándar por el error estándar en el
denominador, el estadístico de prueba tiene una distribución t en vez de una distribución
normal.
3
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
reject H0: 2 = 20 if
t > tcrit or t < –tcrit
Por consiguiente , nos referimos a este esdadístico de prueba como el estadístico t. Por lo
demás, los procedimientos de la prueba son muy similares a las pruebas de hipótesis de
una distribución normal.
4
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
reject H0: 2 = 20 if
t > tcrit or t < –tcrit
Buscamos el valor crítico de t y lo comparamos con el estadístico t estimado, y si éste es mayor
que aquel, ya sea positivo o negativo, rechazamos la hipótesis nula. Si no es así, no la
rechazamos.
5
0.4
normal
0.3
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Esta es la gráfica de una distribución normal con media cero y varianza igual a uno.
6
0.4
normal
t, 10 d.f.
0.3
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Se añade una gráfica de una distribución t con 10 grados de libertad.
7
0.4
normal
t, 10 d.f.
0.3
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Cuando el número de grados de libertad es grande, la distribución t es muy parecida a una
distribución normal (y a medida que el número de casos aumenta, la t converge hacia una
normal)
8
0.4
normal
t, 10 d.f.
0.3
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Incluso cuando el número de grados libertad es pequeño, como en este caso, las
distribuciones son muy similares.
9
0.4
normal
t, 10 d.f.
0.3
t, 5 d.f.
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Esta es otra distribución t, esta vez con sólo 5 grados de libertad. Sigue siendo muy similar
a una distribución normal.
10
0.4
normal
t, 10 d.f.
0.3
t, 5 d.f.
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Entonces, ¿por qué nos preocupamos por referirnos a la distribución t, en lugar de a la
distribución normal? ¿Realmente importaría si utilizáramos siempre 1.96 para la prueba de
5% y 2.58 para la prueba de 1%?
11
0.4
normal
t, 10 d.f.
0.3
t, 5 d.f.
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
La respuesta es que sí importa. A pesar de que las distribuciones son similares, la
distribución t tiene colas más largas que la distribución normal, y esta diferencia se hace
más grande mientras menores sean los grados de libertad.
12
0.1
normal
t, 10 d.f.
t, 5 d.f.
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Como consecuencia, la probabilidad de obtener un estadístico de prueba elevado por
simpel azar es mayor con una dsitribución t que con una distribución normal.
13
0.1
normal
t, 10 d.f.
t, 5 d.f.
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
Ello implica que las regiones de rechazo están a más desviaciones estándar de distancia
del cero para una distribución t que para una distribución normal.
14
0.1
normal
t, 10 d.f.
t, 5 d.f.
0
-6
-5
-4
-3 -1.96
-2
-1
0
1
2
3
4
5
6
Por ejemplo, la cola de 2.5% de una distribución normal comienza a 1.96 desviaciones
estándar de la media.
15
0.1
normal
t, 10 d.f.
t, 5 d.f.
0
-6
-5
-4
-3 -2.33
-2
-1
0
1
2
3
4
5
6
Pero la cola de 2.5% de una distribución t con 10 grados de libertad comienza hasta 2.33
desviaciones estándar de la media.
16
0.1
normal
t, 10 d.f.
t, 5 d.f.
0
-6
-5
-4
-2.57-2
-3
-1
0
1
2
3
4
5
6
Y para una distribución t con 5 grados de libertad, ésta comienza a 2.57 desviaciones
estándar de la media. Es decir que, en general, la distribución t es más conservadora que
la normal, pues requiere estadísticos de prueba más elevados.
17
Distribución t: valores críticos de t
Degrees of Two-sides test
freedom One-side test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1% 0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Por esta razón, es necesario referirse a una tabla de valores críticos de t al desarrollar una
prueba de significatividad sobre los coeficientes de una ecuación de regresión.
18
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
En la parte de arriba de la tabla se en listan los posibles niveles de significatividad para la
prueba. Por el momento sólo haremos pruebas de dos colas, por lo que hay que ignorar la
fila de una cola.
19
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Por consiguiente, si estamos desarrollando una prueba (dos-colas) con 5% significatividad,
deberíamos usar la columna que indica la tabla.
20
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
… libertad
… en una
… regresión
…
…
…
Número de grados
…
…
…
…
…
…
= número de observaciones
– numero
parametros
estimados.
1.734
2.101
2.552 de 2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
La columna del lado izquierdo enlista los grados de libertad. El número de grados de
libertad en una regresión está definido por el número de observaciones menos el número
de parámetros estimados.
21
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
En una regresión simple sólo estimamos dos parámetros, la constante y el coeficiente de la
pendiente, por lo que el número de grados de libertad es n – 2 si hay n observaciones.
22
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Si estuvieramos desarrollando una regresión con 20 observaciones, como en el ejemplo de
inflación de precios / inflación de salarios, el número de grados de libertad sería 18 y el
valor crítico de t para un nivel de 5% sería 2.101.
23
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Note que a medida que el número de grados de libertad se hace más grande, el valor crítico
converge en 1.96, el valor crítico para la distribución normal. Esto se debe a que la
distribución t converge hacia la distribución normal.
24
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
reject H0: 2 = 20 if
t > tcrit or t < –tcrit
Por lo tanto, refiriéndonos al resumen de los procedimientos de la prueba,
25
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
5% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
reject H0: 2 = 20 if
t > 2.101 or t < –2.101
deberíamos rechazar la hipótesis nula si el valor absoluto de t es mayor que 2.101.
26
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Sin por el contrario queremos desarrollar una prueba con 1% significancia, usaríamos la
columna indicada arriba. Note que conforme aumentan los grados de libertad, el valor
crítico converge hacia 2.58, que es el valor crítico para de la distribución normal.
27
Distribución t: valores críticos de t
Degrees of Two-sided test
freedom One-sided test
1
2
3
4
5
…
…
18
19
20
…
…
600

10%
5%
5%
2.5%
2%
1%
1%
0.5%
0.2%
0.1%
0.1%
0.05%
6.314 12.706 31.821 63.657 318.31 636.62
2.920
4.303
6.965
9.925 22.327 31.598
2.353
3.182
4.541
5.841 10.214 12.924
2.132
2.776
3.747
4.604
7.173
8.610
2.015
2.571
3.365
4.032
5.893
6.869
…
…
…
…
…
…
…
…
…
…
…
…
1.734
2.101
2.552
2.878
3.610
3.922
1.729
2.093
2.539
2.861
3.579
3.883
1.725
2.086
2.528
2.845
3.552
3.850
…
…
…
…
…
…
…
…
…
…
…
…
1.647
1.964
2.333
2.584
3.104
3.307
1.645
1.960
2.326
2.576
3.090
3.291
Para una regresión simple con 20 observaciones, el valor crítico de t con un nivel de 1% es
2.878.
28
s.d. of b2 conocido
s.d. of b2 desconocido
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.d.:
Discrepancia entre el valor
hipotético y el estimador
muestral, en términos de s.e.:
b2   2
b2   2
0
z 
s.d.
0
t 
s.e.
5% significance test:
1% significance test:
reject H0: 2 = 20 if
z > 1.96 or z < –1.96
reject H0: 2 = 20 if
t > 2.878 or t < –2.878
Por lo que deberíamos usar esta cifra para una prueba con un nivel de significancia del 1%.
29
Ejemplo:
p  1   2w  u
Consideraremos un ejemplo de una prueba t. Suponga que tenemos datos sobre p, el índice
de inflación en los 5 años pasados, y w, un índice de salarios, para una muestra de 20
países. Es razonable suponer que p es influenciado por w.
30
Ejemplo:
p  1   2w  u
H 0 :  2  1; H 1 :  2  1
Puede ser que tomemos como hipótesis nula que el índice de inflación de precios aumenta
uniformemente con los salarios, en este caso el verdadero coeficiente b2 sería igual a 1.
31
Ejemplo:
p  1   2w  u
H 0 :  2  1; H 1 :  2  1
pˆ  1 . 21  0 . 82 w
( 0 . 05 ) ( 0 . 10 )
Suponga que la regresión resultante es la que se muestra (con errores estándar entre
paréntesis). Nuestra estimación del coeficiente de interés es solamente 0.82.
Comprobaremos si podemos rechazar la hipótesis nula o no.
32
p  1   2w  u
Ejemplo:
H 0 :  2  1; H 1 :  2  1
pˆ  1 . 21  0 . 82 w
( 0 . 05 ) ( 0 . 10 )
b2   2
0
t 
s.e. ( b 2 )

0 . 82  1 . 00
  1 . 80 .
0 . 10
Calculamos el estadístico t restando el valor hipotético del parámetro estimado en la
muestra, y dividimos entre el error estándar. Esto es - 1.80.
33
p  1   2w  u
Ejemplo:
H 0 :  2  1; H 1 :  2  1
pˆ  1 . 21  0 . 82 w
( 0 . 05 ) ( 0 . 10 )
b2   2
0
t 
s.e. ( b 2 )
n  20 ;

0 . 82  1 . 00
  1 . 80 .
0 . 10
degrees of freedom  18
Hay 20 observaciones en la muestra y hemos estimado 2 parámetros, por lo que hay 18
grados de libertad.
34
p  1   2w  u
Ejemplo:
H 0 :  2  1; H 1 :  2  1
pˆ  1 . 21  0 . 82 w
( 0 . 05 ) ( 0 . 10 )
b2   2
0
t 
s.e. ( b 2 )
n  20 ;

0 . 82  1 . 00
  1 . 80 .
0 . 10
degrees of freedom  18
t crit , 5 %  2 . 101
El valor crítico de t con 18 grados de libertad es 2.101 con un nivel de 5%. El valor absoluto
del estadístico t es menor que esto, por lo que no podemos rechazar la hipótesis nula.
35
Y  1  2X  u
En la práctica es inusual hacer una predicción concreta para los coeficientes estimados. El
objetivo del análisis es demostrar que Y es influenciada significativamente por X, sin tener
una noción específica sobre la magnitud de los verdaderos coeficientes del modelo.
36
Y  1  2X  u
H 0 :  2  0; H 1 :  2  0
En este caso es usual definir 2 = 0 como la hipótesis nula. En palabras, la hipótesis nula
es que X no influencia a Y. Después, intentamos demostrar que la hipótesis nula es falsa.
37
Y  1  2X  u
H 0 :  2  0; H 1 :  2  0
b2   2
0
t 
s.e. ( b 2 )

b2
s.e. ( b 2 )
Para la hipótesis nula 2 = 0, el estadístico t se reduce al estimador del coeficiente dividido
entre el error estándar.
38
Y  1  2X  u
H 0 :  2  0; H 1 :  2  0
b2   2
0
t 
s.e. ( b 2 )

b2
s.e. ( b 2 )
Este cociente comúnmente es llamado el estadístico t para el coeficiente y se muestra
como parte de los resultados de una regresión. Para realizar la prueba para un nivel de
significancia dado, comparamos el estadístico t estimado con el valor crítico de t.
39
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
Este es el resultado de la función de ingresos estimada en una presentación anterior, con
el estadístico t señalado.
40
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
Puede verse que el estadístico t para el coeficiente de S es enorme. Rechazaríamos la
hipótesis nula que sostiene que estudiar más años no afecta el ingreso esperado con un
nivel de significancia de 0.1%, incluso sin mirar los valores críticos de t.
41
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
El estadístico t para el intercepto es también enorme. Sin embargo, dado que el intercepto
no tiene ningún significado, no tiene sentido realizar una prueba t sobre él.
42
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
La siguiente columna en el resultado da lo que se conoce como los valores p para cada
coeficiente. Esta es la probabilidad de obtener el estadístico t de manera aleatoria, si la
hipótesis nula H0:  = 0 fuese verdadera.
43
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
Si rechazamos la hipótesis nula H0: b = 0, esta es la probabilidad que cometamos una
equivocación y hagamos un error de tipo I. Por lo tanto, es el nivel de significancia con el
cual la hipótesis nula sería rechazada.
44
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
Si p < 0.05, se podría rechazar la hipótesis nula con un nivel de significancia del 5%. Si
fuera menor a 0.01, podríamos rechazar al 1%. Si fuera 0.001, podríamos rechazar al 0.1%.
Esto, asumiendo pruebas de dos colas.
45
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
En el presente caso p = 0 a tres lugares decimales del coeficiente de S. Esto significa que
podemos rechazar la hipótesis nula H0: b2 = 0 al 0.1%, sin tener que referirnos a la tabla de
valores críticos de t. (La prueba del intercepto no tiene sentido en esta regresión.)
46
. reg EARNINGS S
Source |
SS
df
MS
-------------+-----------------------------Model | 19321.5589
1 19321.5589
Residual | 92688.6722
538 172.283777
-------------+-----------------------------Total | 112010.231
539 207.811189
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
112.15
0.0000
0.1725
0.1710
13.126
-----------------------------------------------------------------------------EARNINGS |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------S |
2.455321
.2318512
10.59
0.000
1.999876
2.910765
_cons | -13.93347
3.219851
-4.33
0.000
-20.25849
-7.608444
------------------------------------------------------------------------------
Es informativo mostrar los resultados de las pruebas, lo cual es ampliamente utilizado en la
literatura médica. Sin embargo en economía la costumbre es reportar los resultados que se
refieren a niveles de significancia del 5%, del 1%, y a veces al 0.1%.
47
Copyright Christopher Dougherty 2000–2008. This slideshow may be freely copied for
personal use. Traducido por Diego Forcada Gallardo
08.07.08
Descargar

No Slide Title