MODELO DE REGRESIÓN SIMPLE
Definición del Modelo de Regresión Simple
Estimaciones por MCO
Método de MCO
Valores Esperados y Varianzas por MCO
DEFINICIÓN DE REGRESIÓN
SIMPLE
 =  
Donde
U=Utilidad de consumidor
Gp=Gustos y preferencias
Sin embargo:
Otros
Factores en
la Regresión
Relación
Funcional
entre las
variables
Ceteris
Paribus
ESTO LLEVA A…MODELO DE
REGRESIÓN LINEAL SIMPLE
 = 0 + 1  + 
Variable
Dependiente
Variable
Explicada
Variable
Predicha
Regresando
c
Variable
Independiente
Variable
Explicativa
Variable de
Control
Regresor
Error o
perturbación
RELACIÓN FUNCIONAL ENTRE
VARIABLES
∆ = 1   ∆ = 0
Se aplica el principio Ceteris Paribus a  (otras variables)
Algunos supuestos
E(u) = 0
E(u|x) = E(u)
E(u|x) = E(u)=0
Cov(x,u) = E(xu) = 0 (No existe relacion lineal entre variables)
E(y|x) es una funcion lineal de x: para cada x,
la predicción de y es E(y|x)
y
f(y)
. E(y|x) = b + b x
0
.
x1
x2
5
1
MÉTODOS DE LOS MOMENTOS
Restricciones
muestrales
Seleccionar parámetros
que aseguren estas
restricciones
Imponer restricciones a la
población
MINIMIZANDO ERRORES
MCO
Método de
Estimación
Minimiza
los errores
al cuadrado
Línea de regresión muestral, observaciones, y
residuales estimados
Minimizando
Residuos
y
.
y4
û4 {
yˆ  bˆ 0  bˆ 1 x
y3
y2
y1
.} û3
.
û{
2
û1
}
.
x1
x2
x3
8
x4
x
PROPIEDADES ALGEBRAICAS
(MATEMÁTICAMENTE) DE MCO
n
 uˆ
n

i 1
uˆ i  0 por tanto,
i
0
n
i 1
n
 x uˆ
i
i
 0 por tanto,
cov (x,u)  0
i 1
y  bˆ 0  bˆ1 x
Es decir, la solución de MCO es idéntica a la del método de momentos.
9
LINEA DE REGRESION
Podemos separar cada observació n en un componente
explicado (sistemáti co) y un componente
y i  yˆ i  uˆ i
no explicado :
De modo que podemos definir lo siguiente :
  y  y  es la Suma Total de cuadrados : SST
  yˆ  y  es la Suma Explicada de cuadrados : SSE
 uˆ es la Suma Residual de cuadrados : SSR
2
i
2
i
2
i
Lo cual implica que
SST  SSE  SSR
10
PROPIEDADES DE MCO
Bondad de Ajuste
¿Qué tan bueno es el
ajuste entre la línea
de regresión y los
datos de la muestra?
R2 = SSE/SST = 1 –
SSR/SST
Coeficiente de
determinacion
PROPIEDADES DE MCO
Insesgamiento:
Eficiencia
INSESGAMIENTO: SUPUESTOS
GAUSS-MARKOV
1.
3.
El modelo poblacional es lineal en sus parámetros: y = b0
+ b1x + u
2. Muestra aleatoria de tamaño n,
{(xi, yi): i=1, 2, …, n}, representativa de la población, de
modo que el modelo muestral es: yi = b0 + b1xi + ui
Media condicional cero: E(u|x) = 0 y por tanto E(ui|xi) =
0
4. Varianza(xi ) > 0
5. homoscedasticidad
Homoscedasticidad
y
f(y|x)
. E(y|x) = b + b x
0
.
x1
x2
14
1
Heteroscedasticidad
f(y|x)
.
.
x1
x2
x3
.
E(y|x) = b0 + b1x
x
15
VARIANZA DE MCO: RESUMEN
A mayor varianza del error, s2, mayor varianza
del estimador de b1.
A mayor varianza en xi, menor varianza del
estimador de b1.
Por ende, a mayor tamaño de muestra, n, menor
varianza del estimador de b1.
16
DIFERENCIAS ENTRE RESIDUOS
Y ERRORES
Residuos se
encuentran en
ecuación estimada
Error aparece en
ecuación con
parámetros
poblacionales
Por tanto, expresar
errores en función
de residuos
ESTIMACIÓN DE LA VARIANZA
DEL ERROR
Lo que observamos son los residuales (estimados) del
modelo muestral:
uˆ i  y i  bˆ 0  bˆ1 x i
Pero podemos usar los residuales estimados para construir
un estimador de la varianza del error.
18
ESTIMACIÓN DE LA VARIANZA
DEL ERROR
ˆ
uˆ i  y i  bˆ 0  b 1 x i , y sustituyen
do para y i
  b 0  b 1 x i  u i   bˆ 0  bˆ1 x i

 

 u i  bˆ 0  b 0  bˆ1  b 1 x i
por insesgamie
nto, ambos paréntesis
de modo que un estimador
sˆ 
2
1
uˆ

n  2 
2
i

insesgado
SSR
n  2 
19
se eliminan..
de s
2
es :
.
sˆ 
ESTIMACIÓN DE LA VARIANZA
DEL ERROR
2
ˆ
s  error estándar
de la regresión
 
recordemos
que : std.dev bˆ  s
si sustituimo
s sˆ en vez de s , entonces
 
tenemos
de bˆ1 :
el error estándar
se bˆ1 
sx
sˆ
  x
i
 x
2

1
2
Y, una vez que conocemos el error estándar de b1 estimada, podemos
calcular su intervalo de confianza y hacer pruebas de hipótesis.
20
MODELO DE REGRESIÓN
MÚLTIPLE
MODELO DE REGRESIÓN
MÚLTIPLE
 = 0 + 1  + 2  + 
Donde
C=Costos de producción
PR=Productividad del trabajador
W =Salario
Para esto se asume:
  1 , 2 = 0
¿Qué implica esto?
LECTURA DE PARÁMETROS
0= ℎ    Pr  =0
1=       ,     
2=       ,     
Descargar

Modelo de Regresión Simple