Hipótesis de trabajo, pruebas de
hipótesis e intervalos de confianza
[email protected]
1
Hipótesis de trabajo
Debe estar lo más claramente formulada.
 Debe ser ‘estadística’ y ‘científicamente’
correcta

– Prohíbo circulación de camiones en Rondas. Tres
semanas después encargo un estudio para ver si el
número de accidentes en Rondas con camiones
disminuye.

Las ‘técnicas de pesca’ se han de evitar
siempre.
[email protected]
2
Hipótesis de trabajo

Por supuesto, LA HIPÓTESIS DE TRABAJO
SE FORMULA CON ANTERIORIDAD A
CUALQUIERA DE LOS PASOS
[email protected]
3
Inferencia estadística
Pruebas estadísticas
Intervalo de confianza
[email protected]
4
¿Qué es lo que busca todo el
mundo?
p
[email protected]
5
¿Para qué se usa la
estadística?
MUESTRA
Prueba estadística
Intervalo de confianza
Inferir
Probabilidad
POBLACIÓN
[email protected]
6
Errores de Tipo I y II
 El valor del error tipo I ó  es de 0.05 (5%)
 El valor del error tipo II ó  es igual o superior
a 0.20 (20%)
 El poder (1 - ) es igual ó superior a 0.80 (80%)
[email protected]
7
Datos categóricos.
Definiciones básicas

Variable binaria: {evento,no evento}
– Proporciones: p = r/n
 suma
de eventos en un grupo de individuos
 denominador fijo: n individuos
 distribución binomial
– Recuentos:
 suma
de eventos raros en un periodo de tiempo o un
territorio
 0,1,2,…,k
 denominador personas-tiempo  tasas
 distribución Poisson
[email protected]
8
Datos cuantitativos
Distribución de la muestra
Tendencia central:
Dispersión o variabilidad:
X media
DE desviación estándar
Distribución de la media de una muestra
Tendencia central:
Dispersión o variabilidad:
media
error estándard
[email protected]
9
Distribución normal
Distribución
de la
muestra
Distribución
X de la
media
X
X+
EEM
X + 2DS =>95%
[email protected]
10
¿p?

Probabilidad de observar, por azar, una
diferencia como la de la muestra o mayor,
cuando H0 es cierta
 Es
una medida de la evidencia en contra
de la H0
– Es el azar una explicación posible de las
diferencias observadas?
 Supongamos
que así es (H0).
 ¿Con qué probabilidad observaríamos unas
diferencias de esa magnitud, o incluso mayor?
valor
 Si
P-
P-valor pequeño, rechazamos H0.
– ¿Difícil?... No, es como un juicio!
[email protected]
11
¿p?

Se acepta un valor máximo de 5% (0,05).
– Si p0,05  diferencias estadísticamente
significativas.
– Si p>0,05  diferencias estadísticamente NO
significativas.
NO
implica importancia clínica.
NO
implica magnitud de efecto!!
– Influenciada por el tamaño de la muestra. Si  n   p
[email protected]
12
Errores y aciertos
R e alid ad
T tos. I gu ale s T tos. D ifere ntes
T tos. I gu ale s
C onclusió n
T tos. D ifere ntes
A cierto
E rror tipo I
[email protected]
( )
E rror tipo II
( )
A cierto
13
Situaciones
 Conclusión:
Diferencias estadísticamente
significativas
– Realidad: Hay diferencias  Acierto
– Realidad: No hay diferencias  Error tipo I ()
 Conclusión:
Diferencias NO estadísticamente
significativas
– Realidad: No hay diferencias  Acierto
– Realidad: Hay diferencias
 Error
tipo II ()
 Muestra insuficiente
[email protected]
14
Utilidad de Creer en la Existencia de
Dios (según Pascal)
H0: Dios No Existe
H1: Dios Existe
R e alid ad
D io s E x ist e
D io s E x ist e
D io s N o E x ist e
A c ier to
N o Pe naliz ac ió n
C o nd e na E ter n a
A c ier to
D ec is ió n
d e Pa sc al
D io s N o E x ist e
[email protected]
15
Sentido/No sentido de la
prueba estadística
 Una
o dos colas
– Sentido – una cola
 El
‘fenómeno’ existe si A es mayor que B
– No Sentido – dos colas
 El
‘fenómeno’ existe si A es diferente que B
[email protected]
16
Pruebas de hipótesis
Unilateral (una cola)
Ho: E - C  0
H1: E - C > 0
Bilateral (dos colas)
Ho: E - C = 0
H1: E - C > 0 ó E - C < 0
[email protected]
17
Revisión de la
aplicabilidad de las
distintas pruebas
estadísticas
[email protected]
18
Normalidad
MÉTODOS PARAMÉTRICOS
[email protected]
19
No normalidad
MÉTODOS NO PARAMÉTRICOS
[email protected]
20
Pruebas paramétricas y noparamétricas

Una prueba paramétrica requiere la
estimación de uno o más parámetros
(estadísticos) de la población
– Ej.: Una estimación de la diferencia entre la media
antes y después de una intervención

Las pruebas no-paramétricas no involucran
ningún tipo de estimación de parámetros
– Ej.: Facilitarnos la una estimación de la P[X>Y],
probabilidad de que, selecionando un paciente
después del tratamiento, su valor sea mayor que
antes del tratamiento
[email protected]
21
Pruebas paramétricas y noparamétricas

Advantage of non-parametric test
– No assumptions about the distribution of the data
– Handles every kind of outcome variable

Disadvantage
– Non-parametric test do not have the same statistical power
as parametric test do

Data issues
– Ranks of data, not data in original units, used
– Effect of outliers is removed (can be good or bad)

Use n-p. test when p. methods are inappropriate due
to lack of distribution requirements
[email protected]
22
Pruebas estadísticas
2 grupos
T ipo de Datos
N om inales (p.e. sexo)
datos independientes
2
D atos apareados
3 grupos
datos independientes
2
A . Ji al cuadrado ( )
A . Prueba de
A . Ji al cuadrado ( )
B. Prueba exacta de Fisher
M cN em ar
N ota: N o se puede usar si el 20%
N ota:
1) Si N >40 usar 
datos apareados
A . Prueba de Cochran Q
de las celdas tienen una
2
frecuencia esperada <5 o si
2
2) Si N =20-40 usar  solam ente si la
alguna celda tiene una frecuencia
frecuencia esperada en cada celda
esperada <1
5; si no usar el test exacto de
Fisher
3) Si N<20 usar siem pre el test
exacto de Fisher
O rdinales o intervalos
A . Prueba de la U de
A . Prueba de
si no se cum ple la
M ann-W hitney
W ilcoxon
Intervalos (p.e.edad,
A . Prueba de la t de
peso, tensión arterial)
Student (t-test)
A . Prueba de Kruskal-W allis
A . Prueba de Friedm an
A . Prueba de la t de Student
A . A nálisis de la V arianza
A . A nálisis de la varianza para
para datos apareados
(A N O V A)
m edidas repetidas
N ota:
N ota:
1) N o es apropiado usar varios t-
1) N o es apropiado usar varios t-
test para com parar 3 grupos
test apareados para com parar 3
2) Si hay una diferencia entre 3
m edidas repetidas
grupos, existen varias pruebas
2) Si hay una diferencia entre 3
para localizar la diferencia
m edidas, existen varias pruebas
(Prueba de Student-N ew m an-
para localizar la diferencia
distribución norm al en
los grupos
[email protected]
Keuls)
23
Más chuletario
V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)
V. CUANTITATIVA NORMALEN AMBOS GRUPOS
Grupos
independientes
Estadística /
Comparar medias /
Prueba T para muestras independientes
V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO
Estadística /
Pruebas no paramétricas /
2 muestras independientes /
U de Mann-Whitney
COMPARACIÓN
DE MEDIAS
Grupos
apareados
V. DIFERENCIA NORMAL
V. DIFERENCIA NO NORMAL
Estadística /
Comparar medias /
Prueba T para muestras relacionadas
Estadística /
Pruebas no paramétricas /
2 muestras relacionadas /
Wilcoxon
NORMALIDAD?
Estadísticos / Pruebas no paramétricas /
K-S de 1 muestra / Normal
[email protected]
24
Más chuletario
V. CUANTITATIVA .vs. V. CUALITATIVA (  2 grupos)
p > 0.05
No se rechaza H0
NORMALIDAD ?
(NPAR TEST K-S (NORMAL))
SI
ANOVA
INDEPENDENCIA ?
ASIGNACIONES ALEATORIAS
HOMOSCEDASTICIDAD?
H0:n
 ó  n
(TEST DE LEVENE)
p < 0.05
Test a posteriori
--> Test de Scheffé
NO
[email protected]
NPAR TEST K-W (Kruskal-Wallis)
25
Más chuletario
V. CUANTITATIVA .vs. V. CUANTITATIVA
Cumplimiento de condiciones de aplicabilidad
* 1 v. cuantitativa aleatoria .vs. 1 v. cuantitativa diseñada
(Normalidad de la v. cuantitativa en los grupos a comparar,
homoscedasticidad)
REGRESION
* 2 v. cuantitativas aleatorias
(Normalidad de las dos v. cuantitativas en su conjunto)
CORRELACION
Incumplimiento de condiciones de aplicabilidad
* NONPAR CORR (Test de Spearman)
[email protected]
26
Análisis de la Co-varianza
(ANCOVA)
 Los
valores que estamos comparando
pueden estar afectados directamente
por otros (covarianción)
– TA al final del estudio
– TA al inicio del estudio
 Medias
ajustadas: Media al
final del estudio si las TA
al inicio fuesen las mismas.
[email protected]
27
Intervalo de Confianza
Def.: “Si se realiza el mismo experimento en las
mismas condiciones, el 95% de las veces la media
que obtendremos estará entre los márgenes”
Intuitivamente: “El verdadero valor se encuentra
dentro del intervalo con una confianza del 95%”
[email protected]
28
CONFIDENCE INTERVAL


If we repeatedly sampled from the same
population, then over the long run, the 95%
confidence interval calculated from each
sample would contain the true population mean
95 times out of 100
We can therefore say (speaking slightly
vaguely) we are “95% confident” that the true
value of the mean is within the confidence
interval calculated for our sample
[email protected]
29
Useful Links








http://hesweb1.med.virginia.edu/biostat/teaching/handouts.htm
l
http://stat.tamu.edu/stat30x/notes/trydouble2.html
http://www.statsoft.com/textbook/stathome.html
http://davidmlane.com/hyperstat/index.html
http://members.aol.com/johnp71/javastat.html
http://www.helsinki.fi/~jpuranen/links.html
http://ubmail.ubalt.edu/~harsham/statistics/REFSTAT.HTM#r
genRes
http://trochim.human.cornell.edu/kb/index.htm
[email protected]
30
Descargar

MASTER DE REGISTRO