El modelo lineal
-5
0
5
10
-10
-5
0
x
Z
-200
10
0
5
0
X
5
-5
10
-10
Y
-10
5
10
x
100
0
-100
-10
-5
0
500
10
20
30
600
y=2*sin(pi*x)-cos(pi*x)+x+0.3*x^2
550
y=600+2*x-0.4*x^2-0.1*x^3
40
El modelo lineal
y i   0   1 x i 1   2 x i 2  ...    p 1 x i  p 1   i
El modelo lineal
y 1   0   1 x 11   2 x 12  ...    p 1 x 1 p 1   1
y 2   0   1 x 21   2 x 22  ...    p 1 x 2  p 1   2
y n   0   1 x n 1   2 x n 2  ...    p 1 x n  p 1   n
Modelo lineal de
efectos fijos
y  Xβ  ε
y  Xβ  ε
 y1 
 q0 (x1)
 

y2
q (x )
y    X   0 2
 

 

yn 
 q 0 ( x n )
q1( x 1 )
q1( x 2 )
q1( x n )
q p 1 ( x 1 ) 
 1 
 0 
 



2

q p 1 ( x 2 ) 
1 



ε 
β 
 



 



  p 1 
 n 
q p 1 ( x n ) 
ε ~ N n 0,  I




2
y ~ N n X β, I
2
Modelo de efectos
mixtos
y  Xβ  Zu  ε
u ~ N q  0, D 
ε ~ N n  0, R 
y ~ N n  X β, Z D Z   R 
Modelo lineal de
efectos fijos
Estimación
máximo verosímil
Estimación máximo verosímil

Consiste en encontrar los valores de los
parámetros que maximizan la función de
verosimilitud.
Ejemplo
Y ~ U (0,  )
f (y i ) 
1

Y1,Y 2 ,...,Y n 
I [ 0,  ] ( y i )
n
La función de densidad conjunta:
f (y :  ) 

i 1
n
La función de verosimilitud:
L(  : y ) 

i 1
1

1

I [ 0,  ] ( y i )
I [ 0, ] ( y i )
n
L(  : y ) 

i 1
1

I [ 0, ] ( y i )
L (  : y ) e s d e cre cie n te e n 
S i a lg ú n y i e s m a yo r q u e  L (  : y ) se a n u la
Luego para que L (  : y ) sea m áxim a   m ax( y 1, y 2 ,..., y n )
Modelo lineal de efectos fijos
Estimación máximo verosímil
Y1,Y 2 ,...,Y n 

y ~ N n X β, I
2

Densidad
normal
multivariada

f y : β,
2

  2

n / 2
 

2

n / 2
e
1
2
 yXβ
y

X
β




2
Verosimilitud
normal
multivariada

L β,

2

: y   2
m a2x  L β , 
β ,
2

n /2
 

: y   m a x   2
2

β ,




2
n / 2

n /2
e
 

2
1
2

n / 2
e
 yXβ
y

X
β




2
1
2
2
 y  X β   y  X β  


Log(Verosimilitud
normal
multivariada)
 
ln L β , 
 
n
2
2
:y

ln  2   
 
n
2
n
2
ln  2   
   2
ln 
2
1
2
n
2
 
ln 
2

1
2

y

X
β


 y  Xβ 
2
 y y  y X β  β X y  β X X β 
Recordar:
 Ax
x
 x A x
x
 A
Si A  A
  A  A x

2Ax
(Ver Timm pag. 96-108)
 
n
2
ln  2   
 
 ln L β , 

n
2
2
 
ln 
:y
2

2
 
 ln L β , 
β
2
:y


1
2
2
 y y  y X β  β X y  β X X β 
 
n 1
 
1
2
2
2
2

1
2
4
 y  X β   y  X β 
  2 X y  2 X X β 
 
 ln L β , 


n 1
2
2

2
:y

2
1
2
4
 
n 1
2
2

1
2
4
 y  X β   y  X β 
 y  X β   y  X β   0   y  X β   y  X β  

2


y  X βˆ
  y  X βˆ 

n
n
2
 
 ln L β , 
2
:y

β

1
2
2
 
1
2
2
  2 X y  2 X X β 
  2 X y  2 X X β   0 
X X β  X y
X X β  X y
Ecuaciones Normales
1
ˆ
β   X X  X y

2


y  X βˆ
  y  X βˆ 

n
Ejemplo para el
modelo de posición
y i  0   i
1
 
1
y    0  
 
  β
1
 1 
 
2
 
 
 
 n 
ε
X

ε ~ N 0,  I
2

1
ˆ
 0   X X  X y
1
1
ˆ
 0   1 1 1 y 
n
n
 yi
i 1
 y

2


y  I  1  1 1
n
1

y y 
1 y

1
n
n
y Jy



2

y  I  1  1 1

y y 
1 y

n
n


1
i 1
2
yi
n
1
  y i
n  i 1
n
 yi
i 1
n
1
n
n
y J n y


 yi  y
i 1

n


2

y  I  1  1 1

y y 
1 y

n
n


1
2
yi
i 1
n
1
  y i
n  i 1
1
y J n y
n
n

 yi  y
i 1

n
n
 yi
i 1
n
n


i 1

1
   yi 
n  i 1 
n
n
2
yi

2
 Smv
2
Propiedades de los
estimadores
máximo-verosímiles
Esperanza
 
E βˆ  E
  X X 
  X X 
1
  X X 

X y 
X E  y  
1
I
1
X X β  β
 
E 
2

 


y  X βˆ I y  X βˆ

E

n






  y  X X X  1 X y  y  X X X  1 X y




 

 
n
 
 

 y  I  X  X X   1 X  y 


E



n










E y  μ
V (y)  
E  y A y   tra za  A    μ  A μ


 y  I  X  X X   1 X  y 


E



n




1

1
1
1
2 
 T ra za 
I  X  X X  X   I   β X 
I  X  X X  X  X β 
n
n
n





El estimador máximo-verosimil de la
varianza de los errores es sesgada
2
n  p 
ˆ
ˆ
2

2

n
2
(n  p )

y  I  X  X X 
np
1

X y
En el modelo de posición…
ˆ 
2
n


i 1

y  I  1  1 1
2
yi
1

n 1
n
1
  y i
n  i 1
y y 
1 y
1
y Jy
n
n 1


 yi  y
i 1

n
n
 yi
i 1
n 1
n


i 1

1
   yi 
n  i 1 
n 1
n
2
yi

2
S
2
Matrices de
proyección
Supongamos …

Un vector y en R3.

Ese vector es una observación distorsionada por error de un vector
que vive en el subespacio -plano- generado por los vectores x1 y x2
(Gen{x1,x2}).

El vector candidato como “vector original” -no observado- es aquel
que, en el plano Gen{x1,x2} está más cerca (en métrica Euclídea) de y.

Este vector se conoce como proyección ortonogal de y en el
subespacio Gen{x1,x2}.

Si definimos la matriz X=[x1,x2], entonces X(X’X)-1X’ es la matriz que,
premultiplicando a y, lo proyecta ortogonalmente en Gen{x1,x2}

X(X’X)-1X’ es la matriz de proyección ortogonal en el plano Gen{x1,x2}


X  X X 
1
X y


X  X X 
1


X y  y  X  X X 
1

X y
Si el vector y no reside en Gen{x1,x2},
el “vector que falta” para completar a y,
es:
1
 I-X  X X 

X y

Esta es la proyección en el
complemento ortogonal de Gen{x1,x2}.

Es fácil ver que

X  X X 
1
 
X   I- X  X X 
1
X
 y  y

X  X X 
1
X y


X  X X 
1


X y  y  X  X X 
1

X y
• es la norma cuadrada del vector y proyectado
en Gen{x1,x2}
• es una medida del tamaño de la proyección

y  I- X  X X 
1

X y
• Es una medida de lo que le falta al vector
proyectado para alcanzar el tamaño del vector
original
y
y
y
X  X X 
1
X y
y
X  X X 
1
X y
y
X  X X 

1
X y
  X  X X 
1

X y
y  y

y    X  X X 
y X  X X 
1
X y
1

X y
Propiedades de los
estimadores
máximo-verosímiles
2
ˆ
β
Independencia de y ˆ

 X X 

2
1
X
  I  
  X X 
2
1
X
I  X  X X 
1
  I  X  X X 

X 
1

X 


1
1
1
2 

 X X  X    X X  X X  X X  X   



Ï


2
  X X 
1
X    X X 
1

X  0
Aunque el estimador de la varianza
residual es estadísticamente
independiente del estimador de los
parámetros fijos, esto no implica que la
estimación de la varianza residual no se
vea afectada por la especificación de la
parte fija del modelo.
 β1 
y  Xβ  ε  X1 X 2     ε
β 2 
X n p
β
X2
X1
np
1
e s p dim ensional
β 1 e s p 1 dim ensional
β2

es p  p1
 dimensional

ε ~ N n 0,  I
2

n p  p

1

Si modelamos
y
como
y  X 1θ  
con los errores supuestamente

 ~ N n 0,  I
2

Estaríamos ante un problema de especificación incorrecta,
en particular ante una sub-especificación del modelo.
Los estimadores de este modelo mal especificados serán:
1
θˆ   X 1 X 1  X 1 y
 
1
ˆ
E θ   X 1 X 1  X 1 E  y  
  X 1 X 1 
1
 β1 
X 1  X 1 X 2    
β 2 
 β 1   X 1 X 1 
1
X 1 X 2 β 2
S e sg o
El estimador de la varianza de este
modelo mal especificado será:
ˆ2



y  I  X 1  X 1 X 1 
n  p1
1

X 1 y
Los estimadores de este modelo mal especificados serán:
2
ˆ 

y  I  X 1  X 1 X 1 
1
n  p1

X 1 y
 
2
E ˆ

 n  p1 
 n  p1 
2



 I  X X  X 1 X   / n  p  

1  1 1
1
1





P1



 X 1 

β2 
  I  P1  /  n  p1   X 1

X
 2
  β 1
2


 tr 



 β 1

 β1 
X2  
β 2 
 X 1 

β2  
  I  P1  /  n  p1   X 1

X
 2
 n  p1 
S e sg o

2

β 2  X 2 X 2  β 2  β 2  X 2 P1X 2  β 2
 n  p1 
S e sg o
 β1 
X2 
β 2 
Propiedades de los
estimadores
del modelo lineal
Distribución de
ˆ
2
Distribución con
y ~ N  μ,  
A  id e m p o te n te
A, simétrica
y Ay ~ 
2
 rango ( A ),
A μ
μ
2
1

ˆ
2
ˆ
2


y  I  X  X X 


X y
y ~ N X β,  I
2
np
n  p 

1
2


y  I  X  X X 

Demostrar que
1

X y
~ 
2
ˆ
Encontrar la varianza de
2
n  p 

ˆ
2
2
2
np
~ 
2
np

Aunque no vamos a demostrarlo, diremos que
βˆ
y ˆ 2 son
estimadores
suficientes
completos, lo que, conjuntamente con
y
la
condición de que Y sigue una distribución de
la familia exponencial,
asegura que los
estimadores son UMVU (uniform minimum
variance unbiased), esto es, estimadores
uniformemente
varianza
insesgados
y
de
mínima
Ejemplo para el modelo
de regresión lineal
simple
y i   0   1x i   i
x1 
 1 

 
x2 0 
2

 

 
  1   

 
xn  β
 n 
1

1
y  


1
ε
X

ε ~ N 0,  I
2




 1
βˆ  
 x
 1



1

1  1


xn  

1
1
x2
X 'X
 n
 
  x i
1

n

xi 
2
 
xi
2

x1  

x2 



xn  


1
 xi 

2
 x i 
1

 x1
x2
X
y
1
  yi 

 
 xi y i 
  x i2

/ n    x i

1
 y1 
 
1  y2
  

xn   
 
yn 
 xi    y i 


n    x i y i 
1
βˆ 
n

1
1 
n

xi 
2

  xi 
2
/n
xi 
2

n
  xi 
2
  x i2

/ n    x i

 xi    y i 


n    x i y i 
  xi y i   xi  y i
  xi y i   xi  y i / n 
2
2
 xi   xi  / n 
/ n 
1
βˆ 
n
1
0 
n



2
xi
yi

  xi 

xi 
2
2
/n


  xi 
n
2
2
xi

xi  xi y i 
2
  xi 
2

  

yi 

 xi  xi y i   xi  y i
/n 
 x

xi 
  x i2

/ n    x i
2
i

  xi 
2
/n

xi
2
/ n
 xi    y i 


n    x i y i 
yi / n 

   yi
 yi
n
xi

2
 xi
n
ˆ1
/n 
ˆ 
1
2

n2
1
n2

y  I- X  X X 

2
yi
1

X y 
y


n2
1



1 
2
 yˆ yˆ 
y


i

n2
a de
 sum
cuadrados
 total no
 corregida

2
i

 y X βˆ 



2
ˆ
y
 i 
sum a de

cuadrados
explicada por 
el m odelo

 
1
V a r ˆ0  p rim e r e le m e n to d ia g o n a l d e  X X  m u ltip lica d o p o r 
 
V a r ˆ0  
2

2
xi

n
 
2

1
 
n


 xi 

2
xi

x

xi 
2
2

/n 
 xi 
 xi 
2
 
xi
2
2
/n
2
2
/n





/n 


 
1
V a r ˆ1  se g u n d o e le m e n to d ia g o n a l d e  X X  m u ltip lica d o p o r 
 
V a r ˆ1  
n
2
n


 x

2
xi

2
i

 xi 
2
 xi 
2
/n

2
/n


2
Valor esperado y residuo
Valor esperado
yˆ i  x i βˆ
1
ˆy  X βˆ  X  X X  X  Y
H a t m a trix

yˆ ~ N n X β , X  X X 
 Nn

1
X β ,  X  X X 
2
V a r  yˆ i   
2
X  X  X X 
1
2


1

X 
X   N n X β, H a t
x i  X X 
1
2
xi  
2

h ii
Residuo
e i  y i  yˆ i
e  y  yˆ  y  X  X X 
1
X  y   I  Hat  y
Hat
e ~ Nn


 I  H at  X β,  I  H at   2  I  H at 
 N n 0, 
2

 I  H at  
V a r( e i )  
2

1  x i  X X 
1
xi


2
 1  h ii 
Residuo
Estudentizado
ri 
ei

2
 1  h ii 
Covarianza entre residuos y
valores esperados
C o v ( yˆ , e ) 
C o v ( yˆ , e ) 
 C o v ( H a t y,( I  H a t ) y ) 
C o v ( yˆ , e ) 
 C o v ( H a t y,( I  H a t ) y ) 
 H a t V a r( y )( I  H a t ) 
C o v ( yˆ , e ) 
 C o v ( H a t y,( I  H a t ) y ) 
 H a t V a r( y )( I  H a t ) 
  Hat(I  Hat )  0
2
Covarianza entre residuos y
valores observados
C o v ( y, e ) 
 C o v  y ,( I  H a t ) y  
 V a r( y )( I  H a t ) 
  (I  Hat )
2
La
covarianza
NO es cero
Varianza de los valores esperados
Modelo regresión lineal simple con
ordenada al origen
V a r( yˆ i ) 
n


2
xj

2
 x j 
2
  x 2j
x i 
   x j
/n

 x j 
 xi 
n 
scx




2
  x 2j  2 x i  x j  n x i2  

n  scx  

2

n  scx  

2
 x
2
j

 xi  x j 
   x j  n x i  x i  
  x 2j  x i  x j  x i  x j  n x i2  

n  scx  
Sumando y restando
 x j 
2
/n a

2
  x 2j  x i  x j  x i  x j  n x i2 

n  scx  
tenemos:


2
2
2

x j  2 xi  x j  nxi 

n  s c x  

2
2


xj 

n  scx  


2

n  scx  

xj 
2
 x j 
 
xj
2
2
 
xj
2
/n 
 
2
xj
/n 

2
2
/ n  2 xi nx  nxi  nx  



/ n  n 2 xi x  xi  x
2
  scx 
n
x

x


i
2
 

 n  scx 
n  scx 


 


2
2
2
 1  x  x 2
i
 
n
 scx 

  




Leverage o palanca
1
yˆ  X βˆ  X  X X  X  y
H a t m a trix
yˆ i  h i 1y 1  h i 2 y 2 
X  X X 

tr X  X X 
1


 h ii y i 
1
X
X   tr X X  X X 
2p
n
h in y n
1
  tr  I
p
p
Contraste de hipótesis
en modelos lineales
Prueba del cociente de
verosimilitudes
Hβ  h

y   0   1x  
 ~ N 0, 
2

1  0
H  0
1
h  0 
1  b
H  0
1
h  b 
y   0   1x1   2 x 2 
1   2 
H  p  1  p
0

0




0
  p 1 x p 1  
  p 1  0
1
0
0
1
0
0
0

0



1
0 
 
0
h  p  1   
0 
 
0 
y   0   1x1   2 x 2 
H  p  1  p
0

0




0
1
0
0
1
0
0
0

0



1
  p 1 x p 1  
0 
 
0
h  p  1   
0 
 
0 
y   0   1x1   2 x 2 
1   2 
H  p  1  p
0

0




0
1
1
0
1
0
1
1
0
0
  p 1 x p 1  
  p 1
0

0



 1
0 
 
0


h  p  1 
0 
 
0 
Prueba del cociente de
verosimilitudes
M
m
w
W
V 
L(m )
L (M )
 2 ln(V ) ~ 
2
Dim ( W )  Dim ( w )
¿Qué forma tiene la prueba del
cociente de verosimilitudes bajo
el modelo lineal con errores
normales?

En el denominador tenemos que encontrar el
máximo de la función de verosimilitud
moviendo  y 2 .

Pero esto es ni mas ni memos que evaluar la
función de verosimilitud en los estimadores
máximo-verosímiles de  y 2.
y  X  X X 

1/ 2
L ( M )   2

n / 2
 
2
n / 2
e
1/ 2
  2
  2


n / 2
n / 2
 
2
 
2
n / 2
e
n / 2
e
n / 2

  y  X  X X 
1
y   I  X  X X  X   y
n
1

y  I  X  X X 
1
n

X y
1
X y

1
1
X


I  X  X X 
y  I  X  X X 
1

X y

1

X y

La complicación aparece cuando
queremos encontrar el máximo de la
función de verosimilitud restringida por
la hipótesis.

El método consiste en introducir la
restricción impuesta por la hipótesis nula
en la función de verosimilitud y
maximizarla sujeta a esta restricción.

Para hacer esto introduciremos la
restricción en el modelo .
Sea
H q  p de rango q
G  p  q  p de rango  p  q 
G
es el complemento ortogonal de
es decir
HG  0
H
H 
 
G 
H 
 
 G  p xp
H

 H H H
H 
 
G 
1
1
1


 H

G


G 

 G  G G
H 


   H H  G G  Ip
G 


1
H 
y X 
G 
1
H 
 β  ε 
G 


 X H H  G G  β  ε 






 XH Hβ  XG Gβ  ε
y  XH h  XG Gβ  ε


y  XH h  XG Gβ  ε
L ( β ,  )   2
2

n / 2
 
2
n / 2
e

z  y  XH h
 1/ 2 
2
 y XH h XG

B  XG



2

  2

 

2
  y  X H h  X G


Gβ
z  Bθ  ε
y  XH h  XG Gβ  ε
L θ,
Gβ
θ  Gβ

n / 2


n / 2
e
1
2
 z B θ
z

B
θ




2


m a x  , 2 L θ , 
2

  2

n / 2
 
H
2

n / 2
e
n
2
V 
 2 
 2 
n / 2
n / 2
 
2
H
 
2
n / 2

n

n
e
n / 2
e
2
2
 

 
2
H
2
n / 2
n / 2
n /2
  H2 
 2 
 

La expresión es una función de un
cociente de varianzas.

La construcción de una prueba
estadística para la hipótesis nula
usando la distribución de V no es simple
ya que V no tiene distribución conocida.

Buscaremos una función de V

w  V



2
n
 n  p 
 1 


q



 n  p H 
w 

2
q



2

1

2







 n  p  z I  B B B  B z  y I  X  X X 


1
q


y  I  X  X X  X  y


1

X y

y  I  X  X X 
1


X  y  z  I  X  X X 


z  y  XH h
1



1
 I  X  X X  X   z   I  P  y  X H  h 



P

z




1


  I  P  y   X H h  X  X X  X X H h 



I

0

X z
np
w 

q


z

I  B  B B 
1
 
B   I  X  X X 

z  I  X  X X 

1
1

X z
1






 n  p  z X  X X  X  B B B  B z
w 

1
q


z  I  X  X X  X  z




z ~ N n X β  X H h,  I
2

1
X
 z

Tenemos el cociente de dos formas cuadráticas de un
vector normal multivariado.

Si podemos mostrar que el numerador y denominador
son Chi-cuadrado independientes divididas por sus
grados de libertad, entonces W tiene, bajo H0
distribución F con los grados de libertad del
numerador y denominador respectivamente.

Primeramente tenemos que probar que el numerador
y denominador de tiene distribución Chi-cuadrado.

Para ello debemos probar que las matrices de estas
formas cuadráticas son simétricas y

que multiplicadas por la matriz de covarianza de son
idempotentes.
Numerador
 X  X X 


1
X  X X 
1
X  X X 
1
X   B  B B 
1
X   B  B B 
1
X   B  B B 
1
B

¿es simétrica?

B  I
B
2

1
no es idempotente
 I
2
2
se p ro p o n e co m o m a triz d e la fo rm a cu a d rá tica

X  X X 
1
X   B  B B 
1
B

1
2
 I
2
¿es idempotente?
Numerador
Probemos que esta matriz es idempotente

1
X  X X 
X   B  B B 
 X  X X 
1
1
X X  X X 
B
1

X  X X 
1
X   X  X X 

X   B  B B 
1
B 
1
1
B
X B  B  B 
I
 B  B B 
1
B  X  X X 
1
X   B  B B 
1
B B  B B 
1
B 
I
 X  X X 
1
X   X  X X 
1
X XG

 B B 
1
B   B  B B 
1
B
B
X  X X 
1
X   X  X X 
1
X X G

1
1

G  X  X  X X  X   B  B B  B 
 B B 
1
B   B  B B 
1
1
1

G  X X  X X  X   B  B B  B 
I
I
B
B
 X  X X 
1
X   2 B  B B 
 X  X X 
1
1
B   B  B B 
X   B  B B 
1
B
1
B 
Numerador
Entonces la forma cuadrática del
numerador es una Chi-cuadrado
con grados de libertad igual al
rango de  X  X X  X   B  B B  B   y
parámetro de no centralidad 
1

ra n g o X  X X 
 
1
2
2

1
X   B  B B 

Xβ  XH h


1
1

B  p   p  q   q
X  X X 
1
X   B  B B 
1
B


Xβ  XH h


I  X  X X 
1
Denominador

X  
2
¿es simétrica?
S i d iv id im o s la m a triz d e la fo rm a p o r  , e n to n ce s
2

d e b e m o s d e m o stra r la id e m p o te n cia d e I  X  X X 

I  X  X X 
 I  X  X X 
1
1
X
X   X  X X 

1
I  X  X X 
1
X   X  X X 
1
X


X 
1
X X  X X 
1
I
 I  2 X  X X 

1
X   X  X X 
1
ra n g o I  X  X X 
X   I  X  X X 
1

X  n  p
1
X
X
Denominador
Parámetro de no centralidad
1
2

1
2
2


Xβ  XH h
Xβ  XH h

2

1
2






1
X β  X H h  X  X X 

X
1
 Xβ  XH h 

X X β  X  X X 
I
 X β  X H h   X β  X H

2
I  X  X X 

1
I

h  Xβ  XH h
0



X X H h 



Ahora deberíamos probar que numerador y
denominador de W son independientes para
ello basta mostrar que:
 X  X X 
1
X   B  B B 
1
B
  I  X  X X 
1

X  0

X  X X 
1
X  X X 
1
X   B  B B 
X   B  B B 
1
1
B
B   X  X X 

1
I  X  X X 
1
X   X  X X 

X 
1
X B  B  B 
B
 B  B B 
1
B   X  X X 
1
X X G
-
 B B 
1
I
  B  B B 
1
B   B  B B 
1
B  0
B 
1
B

1
1






 n  p  z X  X X  X  B B B  B z
w 

1
q


z  I  X  X X  X  z



Es el cociente de dos variables Chi-cuadrado
independientes, divididas por sus grados de
libertad y con parámetros de no centralidad 
y 0 respectivamente. Luego:
w ~ Fq , n  p , 

Para ver con mayor facilidad la forma del
parámetro de no centralidad del numerador,
es conveniente escribir al estadístico w en
una forma equivalente:
ˆ  h H  X X 
H
β


np

w 

q



1
H
y ' I  X  X X 
1
  H βˆ  h 
X  y
1
La forma cuadrática del numerador:
 H βˆ  h   H  X X 


1
H
  H βˆ  h 
1
2
tiene distribución Chi-cuadrado con q grados
de libertad y parámetro de no centralidad
 
1
2
 H X X
H
β

h


  
2
1
H

1
H β  h 
Este parámetro vale cero cuando la hipótesis
nula es cierta.
Ejemplificación
Regresión lineal simple

y   0   1x  
 ~ N 0, 
2

0  0
H  1
0
h  0 
1  0
H  0
1
h  0 
np
w 

q



 0



 
 
1 0  0   0
  1 
 



1
n  scx   
x
  i
1

y  I  X  X X 


n
1 
 n  scx  



 xi 
 0  
  1  
n


2
xi
1
1

 0

1

0 
0
  1 



X y
1
1
n2
 n  2   1  scx 




1
1
1

 y  I  X  X X  X  y 
 S C re sid u a l


2
Ejemplo
Un caso especial
y  Xβ  ε
Una hipótesis que aparece frecuentemente
y es contrastada por defecto por algunos
paquetes estadísticos es
H β  h vs H β  h
ra n g o ( H )  p
H0
1
1
y  XH Hβ  ε
y  XH h  ε
z  0ε

z  X  X X 
1


y  X  X X 
1

X y
np
w 


1
1
 p  z  I  X  X X  X  z


y I  X X X  X y

X z




y  X  X X 
1

X y
Es la suma de cuadrados del
modelo (completo)
Ejemplo
Otro caso especial
0

0




0
H  p  1  p
G  1
B  XG
0

1
 
1

 
 
 
1
1
0
0
1
0
0
0
0

0
  0
 

1
G
I p-1 

 G   G G 
B  B B 
1
B 
1
1
n
1
 
0



 
 
0 
Jn
W 

z  X  X X 



1
n
X 

1
Jn z 
np


1
z  I- X  X X  X  z  p  1 
z  X  X X  X  
z
1

Jn z
n

1
n

Jn z
Es la suma de cuadrados del
modelo corregida por la
constante
Es la suma de cuadrados
explicada por la constante
Sumas de Cuadrados

Aunque hemos mostrado cómo se construyen
las pruebas de hipótesis a partir de la prueba
del cociente de verosimilitudes, existe una
jerga, costumbres y práctica arraigada de
construir estas pruebas a partir de lo que se
llama una partición de la suma de cuadrados.

Los resultados son enteramente consistentes
con los obtenidos por verosimilitud.

Supongamos un vector y en R3.

Que ese vector es una observación distorsionada por error de
un vector que vive en el subespacio -plano- generado por los
vectores x1 y x2 (Gen{x1,x2}).

El vector candidato como “vector original” -no observado- se
propone aquel que, en el plano Gen{x1,x2} está más cerca (en
métrica Euclídea) de y.

Este vector se conoce como proyección ortonogal de y en el
subespacio Gen{x1,x2}.

Si definimos la matriz X=[x1,x2], entonces X(X’X)-1X’ es la
matriz que, premultiplicando a y, lo proyecta ortogonalmente
en Gen{x1,x2}

X(X’X)-1X’ es la matriz de proyección ortogonal en el plano
Gen{x1,x2}

X  X X 
1
X y


X  X X 
1


X y  y  X  X X 
1

X y

es la norma cuadrada del vector y proyectado en
Gen{x1,x2} y es una medida del tamaño de la
proyección

Si el vector y no reside en Gen{x1,x2}, el “vector que
falta” para completar a y, es:
 I-X  X X 


1

X y
Esta es la proyección en el complemento ortogonal de
Gen{x1,x2}.
Es fácil ver que

X  X X 
1
 
X   I- X  X X 
1
X
 y  y

Se dice que y’y, es la suma de cuadrado
total -no corregida- de y.

Podemos descomponer la suma de cuadrado
total -no corregida- en:

Una suma de cuadrados del modelo: atribuible a
la proyección sobre el subespacio definido por las
columnas de X, y

Una suma de cuadrados residual correspondiente
a la suma norma cuadrada de la proyección sobre
su complemento ortogonal del espacio generado por
las columnas de X.
y y 

 y  I- X  X X 
1
X   X  X X 
1

X y
sc total

 y  I- X  X X 
1
sc residual


X  y  y  X  X X 
1

X y
sc explicada por el m odelo

Usualmente los modelos incluyen una
ordenada al origen o constante

No es de mayor interés práctico confundir lo
que explica la ordenada (o en su defecto la
media general en los modelos de
clasificación) con lo que explica el resto del
modelo.

Por ejemplo si uno trabaja con tensiones
arteriales, no está interesado en saber si la
media de la tensión arterial es mayor que
cero.
X  1

P x  X  X X 
X 

*
P1  1  1 1

y y  y   I-Px  y  y  Px 
sc residual
n
Jn 
X
1 
1
n
1
n
jn

Jn y 
sc explicada por el m odelo

 y   I- Px  y  y  P x 
sc residual
1
1
1
1
n

Jn y  y
sc explicada corregida
por la constante

1
n

Jn y
sc explicada por
la constante
Ejemplificar con R
Descargar

Modelos Lineales - Facultad de Ciencias Agropecuarias | UNC