Inferencia bayesiana:
comparación de dos muestras
normales independientes
Programa de doctorado en Estadística,
Análisis de datos y Bioestadística
Inferencia Estadística
Departament d’Estadística
Distribución ji-cuadrado inversa
 Definición:
U :
p (u
c-
n
2
s ii
n
)
- 1
é
ù
= êG
2 ú
ë 2
û
( )
n
2
u
- ( n2 + 1 )
{
ex p -
1
}
2u
u > 0
 Es la distribución de
U =
1
W
Comparación de dos muestras independientes
W :
c n2
Planteamiento del problema
 Dos muestras independientes con
distribución normal:
y = (y1; y 2 ) =
( y 11 , K , y 1n
1
; y 21 , K , y 2 n
2
)
i = 1, 2
Y ij :
N
2
m
,
s
( i i
)
in d ep en d ien t es
j = 1, K , n i
Función de verosimilitud:
2
L ( m1 , m2 , s 12 , s 22 y ) µ
ni
ÕÕ
i= 1 j= 1
1
2
( s i2 )
ìï
ïï
ex p í ï
ïîï
Comparación de dos muestras independientes
( y ij
- mi
2 s i2
2
)
ü
ï
ïï
ý
ï
ïþ
ï
Caso de varianzas iguales
s 12 = s 22 = s
2
 Si las varianzas, aunque desconocidas,
se pueden considerar iguales, la
función de verosimilitud se puede
escribir como:
L (m , m , s 2 y ) µ
1
2 -
(s )
2
ìï
ï
ï
1
ïï
n + n2 )
2( 1
ex p í ï
ï
ï
ï
ïî
n1
å (y 1 j
n2
2
- m1 ) +
å (y 2 j
j= 1
j= 1
2s
2
Comparación de dos muestras independientes
2
- m2 )
ü
ï
ï
ï
ïï
ý
ï
ï
ï
ï
ïþ
Caso de varianzas iguales
igualdad importante y notación
 Teniendo en cuenta que:
ni
å ( y ij
- mi
2
)
ni
å ( y ij
=
j= 1
- y i + y i - mi
2
)
j= 1
ni
=
å
( y ij - y i
2
)
2
+ n i ( y i - mi )
j= 1
n1
s
2
=
n 1s 12
+
n
ni = n i - 1
n 2 s 22
å (y 1 j
=
j= 1
- y1
2
)
n1
+
å (y 2 j
j= 1
n1 + n2 - 2
i = 1, 2
n = n1 + n 2 = n 1 + n 2 - 2
Comparación de dos muestras independientes
- y2
2
)
Caso de varianzas iguales
función de verosimilitud
 Se puede escribir, finalmente:
L ( m1 , m2 , s
æs
ç
çç 2
ès
2
2
- ( 21 n + 1 )
ö
÷
÷
÷
ø
y ) = L ( m1 , m2 , s
2
y 1, y 2 , s 2
)µ
ìï n 1 ( m1 - y )2 + n 2 ( m2 - y )2
1
2
ex p ïí ïîï
2s 2
ìïï n s 2
´ ex p í
ïîï 2 s 2
Comparación de dos muestras independientes
ü
ïï
ý
ïþ
ï
ü
ïï
ý
ïþ
ï
Caso de varianzas iguales
prior no informativa y posterior
 Según el criterio de Jeffreys (también
independencia a priori entre
1
1 1
parámetros):
p (m , m , s 2 ) µ
=
1
2
p ( m1 , m2 , s
s
2
2
s s
y ) µ p ( m1 , m2 , s
æs
µ çç 2
çè s
2
p ( m1 , m2 , s
2
y)
2
- ( 12 n + 1 )
ö
÷
÷
÷
ø
) L ( m1 , m2 , s 2 y )
ìï n s 2
ex p í
ïîï 2 s 2
üï
ý
ïþ
ï
2 ü
2 ü
ì
ì
ï
ï
ï
n 1 ( m1 - y 1 ) ï
n 2 ( m2 - y 2 ) ïï
1
1
ï
ï
´
ex p í ex p í ý´
ý
2
2
s
s
ï
ï
ï
ï
2
s
2
s
ïþ
ïî
ïþ
îï
Comparación de dos muestras independientes
Caso de varianzas iguales
posterior
 En resumen:
p ( m1 , m2 , s
2
y ) = p ( s 2 s 2 ) p ( m1 s 2 , y 1 ) p ( m2 s 2 , y 2 )
14442 4443 1444442 444443 1444442 444443
( n s 2 )c n- 2
æ s2
N çç y 1 ,
çè
n1
ö
÷
÷
÷
ø
æ s2
N çç y 2 ,
n2
èç
ö
÷
÷
ø÷
 Inferencia sobre d: posterior obtenida
d = m2 - m1
de cambio de variable
p ( d, s 2 y ) = p ( s 2 s 2 ) p ( d s 2 , y 2 - y 1 )
14442 4443 144444442 44444443
( n s 2 )c n- 2
æ
æ1
1 öö
2
÷÷
N çç y 2 - y 1 , s çç +
÷÷
÷÷
çè
çè n
n
1
2 øø
Comparación de dos muestras independientes
Caso de varianzas iguales
inferencia marginal sobre d
+¥
p (d y ) =
ò
p ( d, s
2
y )d s
2
0
+¥
=
ò
p (s
2
s 2 ) p ( d s 2 , y 2 - y 1 )d s
2
0
= L
-
é 2 æ1
1 öù
÷
ês çç
ú
+
÷
÷
ç
n 2 øú
êë è n 1
û
=
B ( 12 , 12 n ) n
1
2
ìï
ï
ï
[d ï
í1+
ï
ï
ns 2
ï
ïîï
2
(y 2 - y 1 ) ]
æ1
1 ö÷
ç
çç n + n ÷
÷
è 1
2 ø
Comparación de dos muestras independientes
üï
ï
ï
ï
ý
ï
ï
ï
ïþ
ï
-
1
(n
2
+ 1)
Caso de varianzas iguales
inferencia marginal sobre d
 En resumen, p(d|y) es una t no
æ
estándar
ç
t çy 2
çè
æ1
1 ö
÷
- y 1 , s çç
+
,n
÷
÷
n2 ø
èç n 1
2
 O, equivalentemente, si
d - (y 2 - y 1 )
t =
s
1
n1
+
1
n2
p ( t y ) es t ( n
)
Comparación de dos muestras independientes
ö
÷
÷
ø÷
Caso en el que no podemos
suponer igualdad de varianzas
 Problema de Behrens-Fisher
 Fisher: enfoque de “inferencia fiducial”:
parámetros variables dado un conjunto
de datos fijo (pero sin utilizar prior).
– Savage: inferencia fiducial es “intento de
hacer la tortilla bayesiana sin romper los
huevos bayesianos”
 Solución fiducial  bayesiana a partir de
priores no informativas.
Comparación de dos muestras independientes
Problema de Behrens-Fisher
distribución posterior
 Por separado, p ( m1 y 1 ), p ( m2 y 2 ) son
(
t y 1,
s 12
) (
n 1 , n1 , t y 2,
s 22
n 2 , n2
)
 Si las podemos suponer
independientes:
p ( m1 , m2 y ) = p ( m1 y 1 ) p ( m2 y 2 )
 Posterior para d, teóricamente clara:
p (d y ) =
òò
p ( m1 y 1 ) p ( m2 y 2 )d m1d m2
{d = m2 - m1 }
Comparación de dos muestras independientes
Problema de Behrens-Fisher
aproximación a la distribución posterior
s1
 Fisher propuso basarse en t a n f = s
2
t =
ti =
p (t
d - (y 2 - y 1 )
s 12
n1 +
mi - y i
si
ni
n 1, n 2 , f
s 22
n2
= t 2 cos f - t 1 sin f
n2
: t ( n i ),
)=
n1
t 1, t 2
in d ep .
òò
p ( t 1 ) p ( t 2 )d t 1d t 2
{t 2 cos f - t 1 sin f = t }
Comparación de dos muestras independientes
Distribución de Behrens-Fisher
p (t
n1, n 2 , f
+¥
k
)=
ìïï
( z cos f - t sin f ) ü
ïï
í1+
ý
n1
ïîï
ïïþ
2
ò
- ¥
ìïï
z sin f + t cos f
´ í1+
n2
ïîï
k = [B (
1
2
n 1 , 12
)B (
1
2
n 2 , 12
ü
ïï
ý
ïþ
ï
-
1
2
-
1
2
(n1 + 1 )
(n2 + 1 )
- 1
) n 1n 2 ]
Comparación de dos muestras independientes
dz
Problema de Behrens-Fisher
percentiles de la distribución posterior
 En 1938, Sukhatmé: tabla de
percentiles
a = a1 + a2
1 - a = P r éêt
ë
Þ
a1
£ t £ t 1-
a2
é
ê
ù = P r êt
ú
ê
û
ê
êë
a1
£
d - (y 2 - y 1 )
s 12
n1 +
s 22
£ t 1-
a2
n2
ù
ú
ú
ú
ú
ú
û
in t er v a lo H .P .D .:
(y 2 - y 1 ) + t
a1
s 12
n1 +
s 22
n 2 £ d £ ( y 2 - y 1 ) + t 1-
Comparación de dos muestras independientes
s 12
a2
n1 +
s 22
n2
Problema de Behrens-Fisher
aproximación de la d. posterior
 Patil, 1964:
p ( t n 1, n 2 , f
a2 =
(
b - 2
b
)
)f
a p r ox .
1
t ( 0, a 2 , b )
b = 4 +
f12
f2
æ n2 ö
æ n1 ö
2
÷
÷
ç
f1 = ç
cos f + çç
sin 2 f
÷
÷
÷
çè n - 2 ø
èç n 2 - 2 ø÷
2
2
æ
ö
æ
ö
n 22
n
÷
4
1
÷
÷
f 2 = çç
cos 4 f + çç
sin
f
÷
÷
2
÷
ç
çè ( n - 2 )( n - 4 ) ø
çè ( n - 2 ) ( n - 4 ) ÷
ø
2
2
1
1
Comparación de dos muestras independientes
Inferencia para la ratio de
varianzas
 Métrica “data translated”: log  mejor
considerar log F para inferencia sobre
ratio de varianzas
 La posterior para log F es:
n1
p ( log F y ) =
( n1
B
- ¥
(
n2
n1
2
,
)
n2
2
2
)
F
n1
2
-
æ
n1 ö
÷
ç1 +
F
÷
çç
÷
n2 ø
è
< log F < + ¥
Comparación de dos muestras independientes
1
2
(n1 + n 2 )
Descargar

Inferencia bayesiana: comparación de dos muestras