MODELOS DE ELECCIÓN BINARIA: MODELO DE PROBABILIDAD LINEAL
•
¿Por qué algunas personas van a la universidad mientras que otras
no?
•
¿Por qué algunas mujeres entran al mercado laboral mientras que
otras no lo hacen?
•
¿Por qué unas persona compran casas mientras que otras rentan?
•
¿Por qué algunas emigran mientras que otras permanecen en su
lugar de origen?
Los economistas están interesados frecuentemente en los factores detrás el proceso de
toma de decisiones de los individuos o empresas. Los ejemplos se muestran arriba.
1
MODELOS DE ELECCIÓN BINARIA: MODELO DE PROBABILIDAD LINEAL
•
¿Por qué algunas personas van a la universidad mientras que otras
no?
•
¿Por qué algunas mujeres entran al mercado laboral mientras que
otras no lo hacen?
•
¿Por qué unas persona compran casas mientras que otras rentan?
•
¿Por qué algunas emigran mientras que otras permanecen en su
lugar de origen?
Los modelos que se han desarrollado con este fin se conocen como de respuesta
cualitativa o modelos de elección binaria, donde el resultado, que denotaremos Y, toma un
valor de 1 si ocurre el evento y 0 de otra manera.
2
MODELOS DE ELECCIÓN BINARIA: MODELO DE PROBABILIDAD LINEAL
•
¿Por qué algunas personas van a la universidad mientras que otras
no?
•
¿Por qué algunas mujeres entran al mercado laboral mientras que
otras no lo hacen?
•
¿Por qué unas persona compran casas mientras que otras rentan?
•
¿Por qué algunas emigran mientras que otras permanecen en su
lugar de origen?
Los modelos con más de dos resultados posibles también han sido desarrollados, pero
concentraremos nuestra atención en los modelos de elección binaria.
3
p i  p (Y i  1 )   1   2 X i
El modelo de elección binaria más simple es el modelo lineal de probabilidad donde, como
el nombre implica, la probabilidad del evento, p, se asume como una función lineal de un
sistema de variables explicativas.
4
y, p
p i  p (Y i  1 )   1   2 X i
1
1 +2Xi
1
0
Xi
X
Graficamente, la relación es la que se observa, si sólo hubiera una variable explicativa.
5
p i  p (Y i  1 )   1   2 X i
Por supuesto, p no es observable. Uno solamente tiene datos sobre el resultado binario, Y.
En el modelo lineal de probabilidad se utiliza como una variable binaria o dummy para la
variable dependiente.
6
•
¿Por qué algunas personas se gradúan de la preparatoria mientras
que otras la abandonan?
Como en la ilustración, tomaremos la pregunta que se muestra arriba. Definiremos una
variable GRAD que es igual a 1 si el individuo se graduó de la preparatoria, y 0 si no lo hizo.
7
. generate GRAD = 0
. replace GRAD = 1 if S > 11
(509 real changes made)
. reg GRAD ASVABC
Source |
SS
df
MS
-------------+-----------------------------Model | 2.46607893
1 2.46607893
Residual | 26.7542914
538 .049729166
-------------+-----------------------------Total | 29.2203704
539
.05421219
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
49.59
0.0000
0.0844
0.0827
.223
-----------------------------------------------------------------------------GRAD |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.0070697
.0010039
7.04
0.000
.0050976
.0090419
_cons |
.5794711
.0524502
11.05
0.000
.4764387
.6825035
------------------------------------------------------------------------------
El resultado de Stata que se muestra arriba describe la creación de la variable GRAD.
Primero se fija a 0 para todos los encuestados, y después se reemplaza un 1 para aquellos
que tengan más de 11 años de educación.
8
. generate GRAD = 0
. replace GRAD = 1 if S > 11
(509 real changes made)
. reg GRAD ASVABC
Source |
SS
df
MS
-------------+-----------------------------Model | 2.46607893
1 2.46607893
Residual | 26.7542914
538 .049729166
-------------+-----------------------------Total | 29.2203704
539
.05421219
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
49.59
0.0000
0.0844
0.0827
.223
-----------------------------------------------------------------------------GRAD |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.0070697
.0010039
7.04
0.000
.0050976
.0090419
_cons |
.5794711
.0524502
11.05
0.000
.4764387
.6825035
------------------------------------------------------------------------------
Este es el resultado de una regresión para GRAD con base en ASVABC. El modelo indica
que cada punto adicional en el puntaje de ASVABC aumenta la probabilidad de graduarse
en 0.007, es decir, 0.7%.
9
. g GRAD = 0
. replace GRAD = 1 if S > 11
(509 real changes made)
. reg GRAD ASVABC
Source |
SS
df
MS
-------------+-----------------------------Model | 2.46607893
1 2.46607893
Residual | 26.7542914
538 .049729166
-------------+-----------------------------Total | 29.2203704
539
.05421219
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
49.59
0.0000
0.0844
0.0827
.223
-----------------------------------------------------------------------------GRAD |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.0070697
.0010039
7.04
0.000
.0050976
.0090419
_cons |
.5794711
.0524502
11.05
0.000
.4764387
.6825035
------------------------------------------------------------------------------
El intercepto no tiene un significado preciso. Literalmente significaría que un encuestado
con un puntaje de 0 en ASVABC tiene 58% de probabilidad de graduarse. Sin embargo,
sabemos que con un puntaje de 0 no es posible entrar a la preparatoria.
10
p i  p (Y i  1 )   1   2 X i
Desafortunadamente, el modelo lineal de probabilidad tiene algunos problemas serios.
Primero, existen problemas con el término de error.
11
p i  p (Y i  1 )   1   2 X i
Y i  E (Y i )  u i
Como de costumbre, el valor de la variable dependiente Yi en la observación i tiene un
componente no-estocástico y un componente aleatorio. El componente no-estocástico
depende de Xi y de los parámetros. El componente aleatorio es el término de error.
12
p i  p (Y i  1 )   1   2 X i
Y i  E (Y i )  u i
E (Y i )  1  p i  0  ( 1  p i )  p i   1   2 X i
El componente no-estocástico en la observación i es el valor esperado para esa
observación. Esto es simple de calcular, porque puede tomar solamente dos valores. Es 1
con la probabilidad pi y 0 con la probabilidad de (1 – pi). El valor esperado en la observación
i es, por lo tanto, 1 + 2Xi
13
p i  p (Y i  1 )   1   2 X i
Y i  E (Y i )  u i
E (Y i )  1  p i  0  ( 1  p i )  p i   1   2 X i
Yi   1   2 X i  ui
Esto significa que podemos reescribir el modelo como se muestra.
14
Y, p
p i  p (Y i  1 )   1   2 X i
1
1 +2Xi
1
0
Xi
X
La función de probabilidad es, por lo tanto, también el componente no-estocástico de la
relación entre Y y X.
15
p i  p (Y i  1 )   1   2 X i
Y i  E (Y i )  u i
E (Y i )  1  p i  0  ( 1  p i )  p i   1   2 X i
Yi   1   2 X i  ui
Yi  1

ui  1   1   2 X i
Yi  0

ui    1   2 X i
En la observación i, para que Yi sea 1, ui debe ser (1 – 1 – 2Xi). Para que Yi sea 0, ui debe
ser (– 1 – 2Xi).
16
Y, p
p i  p (Y i  1 )   1   2 X i
A
1
1 – 1 – 2Xi
1 +2Xi
1
1 + 2Xi
B
0
Xi
X
Los dos valores posibles, que dan lugar a las observaciones A y B, se ilustran en el
diagrama. Puesto que u no tiene una distribución normal, los errores estándar y los
estadísticos de prueba son inválidos. Incluso, su distribución no es continua.
17
 u  (  1   2 X i )( 1   1   2 X i )
2
i
Y, p
A
1
1 – 1 – 2Xi
1 +2Xi
1
1 + 2Xi
B
0
Xi
X
Además, puede demostrarse que la varianza poblacional del término de error para la
observación i está dada por (1 + 2Xi)(1 – 1 – 2Xi). Esto cambia con Xi , así que la
distribución es heteroscedástica.
18
Y, p
A
1
1 – 1 – 2Xi
1 +2Xi
1
1 + 2Xi
B
0
Xi
X
Otro problema más del modelo lineal de probabilidad es que puede predecir probabilidades
mayores a 1, como se muestra aquí. Y también puede predecir probabilidades menores a 0.
19
. g GRAD = 0
. replace GRAD = 1 if S > 11
(509 real changes made)
. reg GRAD ASVABC
Source |
SS
df
MS
-------------+-----------------------------Model | 2.46607893
1 2.46607893
Residual | 26.7542914
538 .049729166
-------------+-----------------------------Total | 29.2203704
539
.05421219
Number of obs
F( 1,
538)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
540
49.59
0.0000
0.0844
0.0827
.223
-----------------------------------------------------------------------------GRAD |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------ASVABC |
.0070697
.0010039
7.04
0.000
.0050976
.0090419
_cons |
.5794711
.0524502
11.05
0.000
.4764387
.6825035
-----------------------------------------------------------------------------. predict PROB, xb
El comando de Stata para guardar los valores estimados de una regresión es predict,
seguido por el nombre que deseas darle al valor estimado. Les estamos llamando PROB.
20
. tab PROB if PROB > 1
Fitted |
values |
Freq.
Percent
Cum.
------------+----------------------------------1.000381 |
6
4.76
4.76
1.002308 |
9
7.14
11.90
1.004236 |
7
5.56
17.46
1.006163 |
3
2.38
19.84
*********************************************
1.040855 |
11
8.73
93.65
1.042783 |
3
2.38
96.03
1.04471 |
2
1.59
97.62
1.046638 |
3
2.38
100.00
------------+----------------------------------Total |
126
100.00
tabulate es el comando de Stata para tabular los valores de una variable, o para hacer
tablas cruzadas de dos variables. Notamos que hay 126 observaciones en las que el valor
estimado es mayor a 1 (algunas filas en medio de la tabla han sido omitidas).
21
. tab PROB if PROB > 1
Fitted |
values |
Freq.
Percent
Cum.
------------+----------------------------------1.000381 |
6
4.76
4.76
1.002308 |
9
7.14
11.90
1.004236 |
7
5.56
17.46
1.006163 |
3
2.38
19.84
*********************************************
1.040855 |
11
8.73
93.65
1.042783 |
3
2.38
96.03
1.04471 |
2
1.59
97.62
1.046638 |
3
2.38
100.00
------------+----------------------------------Total |
126
100.00
. tab PROB if PROB < 0
no observations
En este ejemplo no hay ningún valor estimado menor a 0.
22
. tab PROB if PROB > 1
Fitted |
values |
Freq.
Percent
Cum.
------------+----------------------------------1.000381 |
6
4.76
4.76
1.002308 |
9
7.14
11.90
1.004236 |
7
5.56
17.46
1.006163 |
3
2.38
19.84
*********************************************
1.040855 |
11
8.73
93.65
1.042783 |
3
2.38
96.03
1.04471 |
2
1.59
97.62
1.046638 |
3
2.38
100.00
------------+----------------------------------Total |
126
100.00
. tab PROB if PROB < 0
no observations
La ventaja principal del modelo lineal de probabilidad sobre el análisis del logit y del probit,
que consideraremos en las dos presentaciones siguientes, es que es mucho más fácil de
estimar en términos de cómputo.
23
. tab PROB if PROB > 1
Fitted |
values |
Freq.
Percent
Cum.
------------+----------------------------------1.000381 |
6
4.76
4.76
1.002308 |
9
7.14
11.90
1.004236 |
7
5.56
17.46
1.006163 |
3
2.38
19.84
*********************************************
1.040855 |
11
8.73
93.65
1.042783 |
3
2.38
96.03
1.04471 |
2
1.59
97.62
1.046638 |
3
2.38
100.00
------------+----------------------------------Total |
126
100.00
. tab PROB if PROB < 0
no observations
Sin embargo, esta ya no es una considereación. Ahora las computadoras son tan rápidas y
poderosas, que logit y probit son aplicaciones estándar de cualquier de paquete de
regresión.
24
Copyright Christopher Dougherty 2000–2006. This slideshow may be freely copied for
personal use. Traducido por Diego Forcada Gallardo.
21.08.06
Descargar

No Slide Title