Bioestadística
Francisco Javier Barón López
Dpto. Medicina Preventiva
Universidad de Málaga – España
[email protected]
1
Inferencia estadística

Hablar de la población, a pesar de haber
estudiado sólo a una muestra:
 Respuestas
con probabilidad alta de acertar
(típicamente 95%)
 La
respuesta la solemos dar en forma de:
intervalo de confianza
 Contraste de hipótesis.

2
Error típico/estándar

Es “misteriosillo”…
 …al

principio.
Es muy fácil de interpretar:
 El
valor obtenido en la muestra se espera que
esté cerca del valor buscado en la población.
¿cómo de cerca?
 Hay una probabilidad del 95% de que no esté a
más de 2 errores típicos de distancia

3
Aplic. de la normal: Estimación en muestras

Como ilustración
mostramos una variable
que presenta valores
distribuidos de forma muy
asimétrica. Claramente
no normal.

Saquemos muestras de
diferentes tamaños, y
usemos la media de cada
muestra para estimar la
media de la población.
4
Aplic. de la normal: Estimación en muestras

Cada muestra ofrece un
resultado diferente: La media
muestral es variable aleatoria.

Su distribución es más
parecida a la normal que la
original.

También está menos dispersa.
A su dispersión (‘desv. típica
del estimador media
muestral’… ¿os gusta el
nombre largo?) se le suele
denominar error típico.
5
Aplic. de la normal: Estimación en muestras

Al aumentar el
tamaño, n, de la
muestra:
 La
normalidad de las
estimaciones mejora
 El
error típico
disminuye.
6
Aplic. de la normal: Estimación en muestras

Puedo ‘garantizar’
medias muestrales tan
cercanas como quiera a
la verdadera media, sin
más que tomar ‘n
bastante grande’

Se utiliza esta propiedad
para dimensionar el
tamaño de una muestra
antes de empezar una
investigación.
7
•El valor medio de BUA en mujeres jóvenes es de 85.
¿Las mujeres de las que se ha extraído la muestra,
tienen una BUA similar?
•Dar respuesta con confianza del 95%
Tamaño de la
muestra
Media
Error
estándar
Respuesta
10 mujeres
77
6
No hay evidencia
en contra
100 mujeres
71
1.6
No
1000 mujeres
73
0.5
No
8
Contrastando una hipótesis
Son
demasiados...
No se si los fumadores
pesarán como el
resto… unos 70Kg
(hipótesis nula)...
¡Gran
diferencia!
Muestra
aleatoria de
fumadores
Rechazo la
hipótesis
X  85 kg
9
¿Qué es una hipótesis?

Una creencia sobre la
población, principalmente sus
parámetros:
Creo que el porcentaje
de enfermos será el
5%
 Media
 Varianza
 Proporción/Tasa

OJO: Si queremos
contrastarla, debe
establecerse antes del
análisis.
10
Introducción breve: ¿Los fumadores pesan
más?
En la población de no fumadores, el peso
medio es 70 kg.
¿Cómo podríamos ‘demostrar’ si
los fumadores pesan más…
... unos 5 kg más?
70
75
Veamos qué puede ocurrir si
tomamos muestras de tamaño 4 y
calculamos el peso medio… para cada caso.
11
Decidir si los fumadores pesan más: Tamaño
muestral
¿Qué puede ocurrir si tomamos
muestras de tamaño 30 y
calculamos el peso medio?
70
75
12
Decidir si los fumadores pesan más: Tipos
de error
Tomemos la decisión basándonos
en muestras de tamaño 4...
Puedo cometer 2 tipos de error.
Error de tipo II
Se acepta que
no hay
diferencias
70
75
Se acepta
que sí hay
diferencias
Error de tipo I
13
Razonamiento básico
Si supongo que H0 es cierta...
¿qué hace un
científico cuando
su teoría no
coincide con sus
predicciones?
  70
X  85
... el resultado del experimento sería improbable.
Sin embargo ocurrió.
14
Razonamiento básico
Si supongo que H0 es cierta...
Rechazo que H0
sea cierta.
  70
X  85
... el resultado del experimento sería improbable.
Sin embargo ocurrió.
15
Razonamiento básico
Si supongo que H0 es cierta...
• No hay evidencia contra H0
¿Si una teoría
hace predicciones
con éxito, queda
probado que es
cierta?
•No se rechaza H0
•El experimento no es
concluyente
•El contraste no es significativo
  70
X  72
... el resultado del experimento es coherente.
16
Significación: p
a
H0: =70
17
Significación: p
No se rechaza
H0: =70
a
H0: =70
X  72
18
Significación: p
Es la probabilidad que tendría una región crítica que comenzase exactamente en el valor
del estadístico obtenido de la muestra.
Es la probabilidad de tener una muestra que discrepe aún más que la nuestra de H0.
Es la probabilidad de que por puro azar obtengamos una muestra “más extraña” que la
obtenida.
p es conocido después de realizar el experimento aleatorio
El contraste es no significativo cuando p>a
P
a
P
a
No se rechaza
H0: =70
X  72
19
Significación : p
Se rechaza H0: =70
Se acepta H1: >70
a
X  85
20
Significación : p
a
El contraste es estadísticamente significativo cuando p<
Es decir, si el resultado experimental discrepa más de “lo tolerado” a priori.
a
P
Se rechaza H0: =40
Se acepta H1: >40
a
P
X  85
21
Resumen: a, p y criterio de rechazo

Sobre a
 Es
número pequeño,
preelegido al diseñar
el experimento
a sabemos
todo sobre la región
crítica
 Conocido


Sobre p
 Es
conocido tras
realizar el experimento
 Conocido
p sabemos
todo sobre el resultado
del experimento
Sobre el criterio de rechazo

Contraste significativo = p menor que a
22
Resumen: a, p y criterio de rechazo
Estadísticos de contraste
a
Edad del
encuestado
U de Mann-Whitney
259753,500
W de Wilcoxon
462319,500
Z
-2,317
Sig. as intót. (bilateral)
,021
a. Variable de agrupación: Sexo del encuestado

Sobre el criterio de rechazo

Contraste significativo = p menor que a
23
Hipótesis nula y alternativa
Ejemplo 1: Se juzga a un individuo por la presunta comisión de un delito
Los datos pueden refutarla

H0: Hipótesis nula



Es inocente
No hay diferencias entre
grupos
H1: Hipótesis alternativa


Es culpable
Sí hay diferencias entre
grupos
La que se acepta si las
pruebas no indican lo
contrario
No debería ser aceptada sin una
gran evidencia a favor.
24
Contrastes de hipótesis clásicos

Pruebas para comparar dos grupos
 Un
grupo de individuos recibirá un tratamiento.
 Otro grupo ‘comparable’ recibirá un placebo.
 ¿Los resultados son similares?

¿Cómo medimos el resultado?
 Numéricamente

prueba t-student
 Si/No,

Sana/Enferma, …
Prueba chi-cuadrado
25

Problema:


¿Las diferencias numéricas obtenidas al comparar
dos tratamientos (o dos poblaciones) son lo
suficientemente grandes como para que su única
causa sea atribuible al azar?
Clasificación:

Muestras independientes

Muestras apareadas/relacionadas
26
Muestras relacionadas (apareadas)


Cómo:

Observamos al mismo individuo dos veces
(antes/después,…)

O bien, hacemos parejas de individuos “parecidos”…
Cuándo:

Cuando hay fuentes de variabilidad que pueden
tener un efecto grande con respecto a lo que
medimos.
27
Contrastes con muestras relacionadas

Hipótesis Nula:


Se rechazará cuando la muestra discrepe.


No hay diferencias entre las parejas de observaciones
(p es pequeño)
Hay diferentes aproximaciones:

Paramétrica (T- Student)


No puede aplicarse así como así…
No paramétrica (Wilcoxon)

Se puede aplicar siempre.
28
Ejemplo:

Comparar la producción de maiz de dos tipos de
semillas.

Las semillas influirán, pero posiblemente poco con
respecto a otras variables:


Sol, viento, terreno,…
Idea: Probar los dos tipos de semillas en “idénticas”
condiciones.
29
Ejemplo: Semillas
Prueba de muestras relacionadas
Diferencias relacionadas
Media
Semilla tipo I Semilla tipo II
-33,7273
Error típ. de
la media
19,95135
95% Intervalo de
confianza para la
diferencia
Inferior
-78,1816
Estadísticos de contraste
Superior
Sig. (bilateral)
10,7271
,122
b
Semilla tipo II
- Semilla tipo I
-1,600a
Z
Sig. asintót. (bilateral)
,110
a. Basado en los rangos negativos.
b. Prueba de los rangos con signo de Wilcoxon
30
Muestras independientes

Problema:


¿La ingesta de calcio reduce la presión sanguínea?
Esquema de estrategia:

Elegimos 2 muestras de individuos (independientes)

Unos toman dosis fija de calcio. Otros no.


Experimental/Placebo
Alguna diferencia habrá en los resultados… ¿Se
deben al azar?

Elección de un contraste y cálculo de significación.
31
Muestras independientes

Hipótesis Nula:


No hay diferencias entre los resultados de ambos
grupos.
Al igual que antes… sigue habiendo diferentes
aproximaciones:

Paramétrica (T- Student)
 No puede aplicarse así como así…

No paramétrica (Wilcoxon, Mann-Whitney)
 Se puede aplicar siempre.
32
Muestras independientes: Ejemplo

Se cree que la ingesta de calcio reduce la
presión sanguínea. Para contrastarlo se decidió
elegir 2 muestras independientes:

Casos: A 10 individuos, se les asignó un tratamiento
consistente en un suplemento de calcio durante 3
meses y se observó la diferencia producida en la
presión arterial


la que había “antes” menos la que había “después”
Controles: A los 11 individuos restantes se les
suministró un placebo y se midió también la
diferencia.
33
… y ahora la inferencia…
Prueba de muestras independientes
Prueba
de
Levene
para la
igualdad
de
varianzas
Sig.
Efecto
Se han asumido
varianzas iguales
Prueba T para la igualdad de medias
95% Intervalo de
confianza para la
diferencia
Sig. (bilateral)
,051
No se han asumido
varianzas iguales
Inferior
Superior
,119
-12,02622
1,48077
,129
-12,25749
1,71204
Estadísticos de contraste
Efecto
U de Mann-Whitney
Sig. asintót. (bilateral)
40,500
,306
34
Sobre las condiciones de validez
(paramétrica)
20,00
Igualdad en la dispersión
en cada muestra es algo
a tener en cuenta.


No es un problema para
dos muestras, !pero sí
para casos más
complicados!
13
10,00
Efecto

0,00
-10,00
Normalidad en cada
muestra:

Placebo
Calcio
Grupo
Pruebas de normalidad
Kolmogorov
-Smirnov
Efecto
Grupo
Placebo
Calcio
Kolmogorov-Smirnov
Shapiro-Wilk
Sig.
Sig.
,200
,753
,200
,19435
Gráfico Q-Q normal de Efecto
Gráfico Q-Q normal de Efecto
para grupo= Placebo
para grupo= Calcio
1,5
1,5
1,0
1,0
Normal esperado
Normal esperado
Condición de normalidad
0,5
0,0
-0,5
0,5
0,0
-0,5
-1,0
-1,0
-1,5
-1,5
-10
-5
0
Valor observado
5
10
-10
-5
0
5
10
15
20
Valor observado
36
Una variable numérica y varios grupos

Problema:

¿Las diferencias numéricas obtenidas al comparar dos, tres
o más tratamientos (o poblaciones) son lo suficientemente
grandes como para que su única causa sea atribuible al
azar?

Observar que generaliza lo anterior.

A la variable numérica que observamos se la suele llamar
dependiente.

A la variable que clasifica a los individuos en diferentes grupos
se la llama factor (o variable independiente).

A sus modalidades se les llama niveles del factor.
37
Muestras independientes

Hipótesis Nula:


No hay diferencias entre los niveles del factor.
Aproximaciones:

Paramétricas: ANOVA de un factor


Es el caso más simple de toda una familia de técnicas muy
poderosas.
No paramétricas: Kruskal-Wallis.
38
Muestras independientes

Problema:


¿La ingesta de calcio reduce la presión sanguínea?
Esquema de estrategia:

Elegimos 2 muestras de individuos (independientes)

Unos toman dosis fija de calcio. Otros no.


Control/Placebo
Alguna diferencia habrá en los resultados… ¿Se
deben al azar?

Elección de un contraste y cálculo de significación.
39
Muestras independientes: Ejemplo


Ejemplo: Se realizó un experimento para comparar tres
métodos de aprendizaje de lectura.
Se asignó aleatoriamente los estudiantes a cada uno
de los tres métodos.


Cada método fue probado con 22 estudiantes
(experimento equilibrado).


Los métodos de lectura son el factor (lo que explicará los
resultados).
Cada método es uno de los niveles del factor
Se evaluó mediante diferentes pruebas la capacidad de
comprensión de los estudiantes, antes y después de
recibir la instrucción.

Variables dependientes (numéricas).
40
¿Problemas de diseño?

Los individuos fueron asignados al azar a cada
grupo… ¿Se repartieron bien?

¿Tenían la misma puntuación “antes”?

No se encuentra evidencia en contra (p=0,436)
ANOVA
Antes
Suma de
cuadrados
Media
cuadrática
gl
Inter-grupos
7,826
2
3,913
Intra-grupos
292,739
63
4,647
Total
300,564
65
F
Sig.
,842
,436
41
Sobre las condiciones de validez (paramétrica)

Igualdad en la
dispersión en cada
muestra (Levene)
Prueba de homogeneidad de varianzas
Antes
Estadístico
de Levene
gl1
,305

gl2
2
Sig.
63
,738
Normalidad de cada
muestra.
Pruebas de normalidad
Grupo
pre1
KolmogorovSmirnov
Sig.
Shapiro-Wilk
Sig.
Control
,032
,589
Técnica I
,026
,039
Técnica II
,118
,073
42
Y ahora lo interesante…
20
18
16
Informe
14
Diferencia
12
Media
Desv. típ.
N
9,8712
2,67505
22
10
Técnica I
13,5000
3,06283
22
8
Técnica II
13,0909
2,36918
22
6
Total
12,1540
3,13531
D ife r e n cia
Grupo
Control
66
4
2
N=
22
Control
22
Técnica I
22
Técnica II
Grupo

¿Las tres técnicas de aprendizaje producen el
mismo efecto?
43
Prueba de homogeneidad de varianzas
Diferencia
Estadístico
de Levene
gl1
1,412
gl2
2
Sig.
63
,251
ANOVA
Diferencia
Suma de
cuadrados
Media
cuadrática
gl
Inter-grupos
173,814
2
86,907
Intra-grupos
465,148
63
7,383
Total
638,962
65
F
11,771
Sig.
,000
44
Análisis a posteriori de un ANOVA significativo

Comparaciones planeadas
 Hay

que ser honestos
Comparaciones no planeadas (post-hoc)
 Muy

conservadoras
Para que las diferencias sean significativas,
tienen que serlo muuuucho.
45
Versión no paramétrica (Kruskal Wallis)
a,b
Estadísticos de contraste
Diferencia
Chi-cuadrado
gl
18,042
2
Sig. asintót.
,000
a. Prueba de Kruskal-Wallis
b. Variable de agrupación: Grupo

No requerimos ninguna condición que sea de
comprobación difícil.
46
Descargar

Bioestadística - Universidad de Málaga