Title: Generacin de documentos cientficos en Informtica
1Generación de documentos científicos en
Informática
- Generación de experimentos.
- Francisco Parreño Torres
2Intentaremos ver
- Estimadores
- Contraste de hipótesis
- Diferentes contrastes de hipótesis
- Paramétricos
- No paramétricos
3Estimación
- Un estimador es una cantidad numérica calculada
sobre una muestra y que esperamos que sea una
buena aproximación de cierta cantidad con el
mismo significado en la población (parámetro). - Con estimadores se trabaja cada vez que se toma
una muestra de población y suponíamos que las
medias, etc eran próximas de las de la
población. - Para la media de una población
- El mejor es la media de la muestra.
- Para la frecuencia relativa de una modalidad de
una variable - El mejor es la frecuencia relativa en la
muestra. - Habría que precisar que se entiende por el mejor
estimador.
4Es útil conocer la distribución de un estimador?
- Es la clave para hacer inferencia.
- Ilustrémoslo con un ejemplo (teorema del límite
central). - Si de una variable conocemos µ y s, sabemos que
para muestras grandes, la media muestral es - aproximadamente normal,
- con la misma media y,
- desviación típica mucho menor (error estándar)
- Es decir si por ejemplo µ60 y s5, y obtenemos
muestras de tamaño n100, - La desv. típica de la media muestral (error
estándar) es EE5/raiz(100)0,5 - como la media muestral es aproximadamente normal,
el 95 de los estudios con muestras ofrecerían
estimaciones entre 601 - Dicho de otra manera, al hacer un estudio tenemos
una confianza del 95 de que la verdadera media
esté a una distancia de 1.
5Estimación puntual y por intervalos
- Se denomina estimación puntual de un parámetro al
ofrecido por el estimador sobre una muestra. - Se denomina estimación confidencial o intervalo
de confianza para un nivel de confianza 1-a dado,
a un intervalo que ha sido construido de tal
manera que con frecuencia 1-a realmente contiene
al parámetro. - Obsérvese que la probabilidad de error (no
contener al parámetro) es a. - A esta probabilidad de error se le llamará prob.
de error de tipo I o nivel de significación. - Valores típicos a0,10 0,05 0,01
- En general el tamaño del intervalo disminuye con
el tamaño muestral y aumenta con 1-a. - En todo intervalo de confianza hay una noticia
buena y otra mala - La buena hemos usado una técnica que en un
alto de casos acierta. - La mala no sabemos si ha acertado en nuestro
caso.
6Contrastando una hipótesis
Son demasiados...
No se si los fumadores pesarán como el resto
unos 70Kg (hipótesis nula)...
Gran diferencia! Rechazo la hipótesis
Muestra aleatoria de fumadores
7Qué es una hipótesis?
- Una creencia sobre la población, principalmente
sus parámetros - Media
- Varianza
- Proporción/Tasa
- OJO Si queremos contrastarla, debe establecerse
antes del análisis. -
Creo que mi algoritmo funciona mejor que el otro
8Introducción breve Los fumadores pesan más?
En la población de no fumadores, el pesomedio es
70 kg. Cómo podríamos demostrar si los
fumadores pesan más ... unos 5 kg más?
70
75
Veamos qué puede ocurrir si tomamos muestras de
tamaño 4 y calculamos el peso medio para cada
caso.
9Decidir si los fumadores pesan más Tamaño
muestral
70
75
Qué puede ocurrir si tomamosmuestras de tamaño
30 y calculamos el peso medio?
10Decidir si los fumadores pesan más Tipos de error
Tomemos la decisión basándonosen muestras de
tamaño 4... Puedo cometer 2 tipos de error.
Error de tipo II
70
75
Error de tipo I
11Identificación de hipótesis
- Hip. Alternativa H1
- Niega a H0 (y creemos que es mejor).
- Los datos pueden mostrar evidencia a favor
- No debería ser aceptada sin una gran evidencia a
favor.
- Hipótesis nula Ho
- La que contrastamos
- Los datos pueden refutarla
- No debería ser rechazada sin una buena razón.
12Quién es H0?
- Problema Es mejor mi algoritmo que otro?
Solamente tenemos en cuenta quien gana. - Solución
- Traducir a lenguaje estadístico
- Establecer su opuesto
- Seleccionar la hipótesis nula
13Quién es H0?
- Problema La media de desviación de mi algoritmo
es del 1? - Solución
- Traducir a lenguaje estadístico
- Establecer su opuesto
- Seleccionar la hipótesis nula
14Razonamiento básico
Si supongo que H0 es cierta...
qué hace un científico cuando su teoría no
coincide con sus predicciones?
... el resultado del experimento sería
improbable. Sin embargo ocurrió.
15Razonamiento básico
Si supongo que H0 es cierta...
Rechazo que H0 sea cierta.
... el resultado del experimento sería
improbable. Sin embargo ocurrió.
16Razonamiento básico
Si supongo que H0 es cierta...
- No hay evidencia contra H0
- No se rechaza H0
- El experimento no es concluyente
- El contraste no es significativo
Si una teoría hace predicciones con éxito, queda
probado que es cierta?
... el resultado del experimento es coherente.
17Región crítica y nivel de significación
- Nivel de significación a
- Número pequeño 1 , 5
- Fijado de antemano por el investigador
- Es la probabilidad de rechazar H0 cuando es cierta
- Región crítica
- Valores improbables si...
- Es conocida antes de realizar el experimento
resultados experimentales que refutarían H0
a5
Reg. Crit.
Reg. Crit.
No rechazo H0
18Contrastes unilateral y bilateral
La posición de la región crítica depende de la
hipótesis alternativa
H1 m¹70
Bilateral
Unilateral
Unilateral
H1 mlt70
H1 mgt70
19Significación p-valor
a
H0 m70
20Significación p-valor
No se rechaza H0 m70
a
H0 m70
21Significación p-valor
Es la probabilidad que tendría una región crítica
que comenzase exactamente en el valor del
estadístico obtenido de la muestra. Es la
probabilidad de tener una muestra que discrepe
aún más que la nuestra de H0. Es la probabilidad
de que por puro azar obtengamos una muestra más
extraña que la obtenida. p es conocido después
de realizar el experimento aleatorio El contraste
es no significativo cuando pgta
P
a
No se rechaza H0 m70
P
a
22Significación p-valor
Se rechaza H0 m70 Se acepta H1 mgt70
a
23Significación p-valor
El contraste es estadísticamente significativo
cuando plta Es decir, si el resultado
experimental discrepa más de lo tolerado a
priori.
a
P
Se rechaza H0 m40 Se acepta H1 mgt40
a
P
24Resumen a, p y criterio de rechazo
- Sobre a
- Es número pequeño, preelegido al diseñar el
experimento - Conocido a sabemos todo sobre la región crítica
- Sobre p
- Es conocido tras realizar el experimento
- Conocido p sabemos todo sobre el resultado del
experimento
- Sobre el criterio de rechazo
- Contraste significativo p menor que a
25Resumen a, p y criterio de rechazo
- Sobre el criterio de rechazo
- Contraste significativo p menor que a
26Ejemplo
- Problema Está sesgada la moneda?
Experimento Lanzar la moneda repetidamente
P6,25
P25
P3
P50
P12,5
P1,5
27Riesgos al tomar decisiones
Ejemplo 1 Se juzga a un individuo por la
presunta comisión de un delito
Los datos pueden refutarla La que se acepta si
las pruebas no indican lo contrario Rechazarla
por error tiene graves consecuencias
- H0 Hipótesis nula
- Es inocente
- H1 Hipótesis alternativa
- Es culpable
- No debería ser aceptada sin una gran evidencia a
favor. - Rechazarla por error tiene consecuencias
consideradas menos graves que la anterior
28Riesgos al contrastar hipótesis
Ejemplo 2 Se cree que un nuevo tratamiento
ofrece buenos resultados
Ejemplo 3 Parece que hay una incidencia de
enfermedad más alta de lo normal
No especulativa
- H0 Hipótesis nula
- (Ej.1) Es inocente
- (Ej.2) El nuevo tratamiento no tiene efecto
- (Ej.3) No hay nada que destacar
- H1 Hipótesis alternativa
- (Ej.1) Es culpable
- (Ej.2) El nuevo tratamiento es útil
- (Ej. 3) Hay una situación anormal
Especulativa
29Tipos de error al tomar una decisión
30Tipos de error al contrastar hipótesis
31No se puede tener todo
b
a
- bP(no rechazar H0/H1 es cierta) potencia del
contraste. - Lo ideal sería minimizar ambos Para un tamaño
muestral fijo, no se pueden reducir a la vez
ambos tipos de error. - Para reducir b, hay que aumentar el tamaño
muestral. Cuantos más datos más información.
32Conclusiones
- Las hipótesis no se plantean después de observar
los datos. - En ciencia, las hipótesis nula y alternativa no
tienen el mismo papel - H0 Hipótesis científicamente más simple.
- H1 El peso de la prueba recae en ella.
- a debe ser pequeño
- Rechazar una hipótesis consiste en observar si
plta - Rechazar una hipótesis no prueba que sea falsa.
Podemos cometer error de tipo I - No rechazar una hipótesis no prueba que sea
cierta. Podemos cometer error de tipo II - Si decidimos rechazar una hipótesis debemos
mostrar la probabilidad de equivocarnos.
33Contrastes paramétricos de hipótesis
34Pruebas de contraste para un grupo
- Vamos a ver TRES contrastes.
- Contraste de hipótesis sobre la media de un grupo
(con n observaciones independientes) - Contraste de hipótesis sobre la proporción en un
grupo. - Tercero, veremos el contraste de hipótesis sobre
la varianza de un grupo
35Pruebas de contraste para un grupo
- Contraste de hipótesis sobre la media de un grupo
(con n observaciones independientes) - Veremos dos casos
- a) el caso de que conozcamos la varianza
poblacional (caso improbable) - b) el caso de que desconozcamos la varianza
poblacional (caso usual) - a) Caso de conocer la varianza poblacional
- Hipótesis nula µµ0 Hipótesis alternativa
µ?µ0 - Supuestos estadísticos La población de origen es
normal (o cualquier distribución, caso de que n
sea grande) - Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
36Pruebas de contraste para un grupo
b) Caso de DESCONOCER la varianza
poblacional Hipótesis nula µµ0 Hipótesis
alternativa µ?µ0 Supuestos estadísticos La
población de origen es normal (o cualquier
distribución, caso de que n sea
grande) Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-1 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
37Pruebas de contraste para un grupo
2. Contraste de hipótesis sobre una sola
proporción (n observaciones independientes) Hipót
esis nula pp0 Hipótesis alternativa
p?p0 Supuestos estadísticos La población de
origen sigue una distribución de
Bernoulli. Estadístico de contraste (emplearemos
la aproximación a la normal hay otra fórmula
para el caso de que n sea pequeño)
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según una N(0,1)
38Pruebas de contraste para un grupo
3. Contraste de hipótesis sobre la varianza (n
observaciones independientes) Hipótesis nula
s2s 20 Hipótesis alternativa s2?s20 Supuestos
estadísticos La población de origen es
normal. Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según una chi-cuadrado con n-1 gl
39Pruebas de contraste para dos grupos
- El contraste de hipótesis sobre la diferencia de
medias de dos grupos - El contraste de hipótesis sobre la diferencia de
dos proporciones - El contraste de hipótesis sobre la igualdad de
varianzas
En las tres situaciones, veremos el caso de que
los grupos sean independientes (no relacionados)
y el caso de que los grupos sean relacionados
40Pruebas de contraste para dos grupos.Sobre medias
- Contraste sobre la diferencia de dos medias
independientes (asumiendo que conozcamos la
varianza poblacional en cada grupo atención
caso muy poco realista) - Contraste sobre la diferencia de dos medias
independientes, asumiendo que si bien no
conocemos la varianza poblacional de los grupos,
asumimos que éstas son iguales. - Contraste sobre la diferencia de dos medias
independientes, asumiendo que no conocemos la
varianza poblacional de los grupos y que éstas
son diferentes. - Contraste sobre la diferencia de dos medias de
grupos relacionados
41Pruebas de contraste para dos grupos.Sobre medias
- Contraste de hipótesis sobre la diferencia de
medias de dos grupos independientes. Caso de
conocer la varianza poblacional de los grupos
Hipótesis nula µ1µ2 Hipótesis alternativa
µ1?µ2 Supuestos estadísticos Ambas normales (o
cualquier distribución, caso de que los tamaños
muestrales sean grandes) Estadístico de
contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
42Pruebas de contraste para dos grupos.Sobre medias
- Contraste de hipótesis sobre la diferencia de
medias de dos grupos independientes. Varianzas
poblacionales desconocidas (pero iguales)
Hipótesis nula µ1µ2 Hipótesis alternativa
µ1?µ2 Supuestos estadísticos Ambas normales (o
cualquier distribución, caso de que los tamaños
muestrales sean grandes) Estadístico de
contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n1n2-2 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
43Pruebas de contraste para dos gruposSobre medias
- Contraste de hipótesis sobre la diferencia de
medias de dos grupos independientes. Varianzas
poblacionales desconocidas (pero diferentes)
Hipótesis nula m1m2 Hipótesis
alternativa m1?m2 Supuestos estadísticos Ambas
normales (o cualquier distribución, caso de que
los tamaños muestrales sean grandes) Estadístico
de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según t de Student con los
siguientes grados de libertad
44Pruebas de contraste para dos gruposSobre medias
- Contraste de hipótesis sobre la diferencia de
medias de dos grupos relacionados.
Hipótesis nula
Hipótesis alternativa Supuestos
estadísticos (de la población de diferencias)
normales (con varianza poblacional
desconocida) Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-1 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
45Pruebas de contraste para dos gruposSobre
proporciones
- Contraste de hipótesis sobre dos varianzas
- Contraste sobre dos proporciones con
observaciones independientes - Contraste sobre dos proporciones con
observaciones dependientes
46Pruebas de contraste para dos grupos Sobre
proporciones
- Contraste de hipótesis sobre dos proporciones
(observ. Independientes)
Hipótesis nula p1p2p Hipótesis alternativa
p1?p2 Supuestos estadísticos Ambas de Bernoulli
Estadístico de contraste (emplearemos solo la de
muestras grandes)
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
47Pruebas de contraste para dos gruposSobre
proporciones
- Contraste de hipótesis sobre dos proporciones
(observ. dependientes)
Hipótesis nula p1p2p Hipótesis
alternativa p1?p2 Supuestos estadísticos Ambas
de Bernoulli Estadístico de contraste
(emplearemos solo la de muestras grandes)
después
Observad que si la hipótesis nula fuera cierta,
DB (es decir, el mismo número de personas pasan
de favor a contra, que de contra a favor).
favor
contra
favor
A
B
antes
D
C
contra
48Pruebas de contraste para dos gruposSobre
proporciones
- Contraste de hipótesis sobre dos proporciones
(observ. dependientes) (cont)
Hipótesis nula BD Hipótesis
alternativa B?D Supuestos estadísticos Ambas de
Bernoulli Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
49Pruebas de contraste para dos gruposVarianzas
- Contraste de hipótesis sobre dos varianzas
- Contraste sobre dos varianzas con observaciones
independientes - Contraste sobre dos varianzas con observaciones
dependientes
50Pruebas de contraste para dos gruposVarianzas
- Contraste de hipótesis sobre dos varianzas con
observaciones independientes
Hipótesis nula s1s2 Hipótesis
alternativa s1?s2 Supuestos estadísticos Ambas
normales Estadístico de contraste
2
2
2
2
Si la hipótesis nula es cierta, dicho estadístico
se distribuye F con n1 gl en el numerador y n2 gl
en el denominador
51Pruebas de contraste para dos gruposVarianzas
- Contraste de hipótesis sobre dos varianzas con
observ. dependientes
Hipótesis nula s1s2 Hipótesis alternativa
s1?s2 Supuestos estadísticos Ambas
normales Estadístico de contraste
2
2
2
2
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-2 gl
Observad que las puntuaciones x son puntuaciones
diferenciales.
52Pruebas de contraste (sobre las medias) para más
de dos grupos
- Anteriormente hemos visto el empleo de la prueba
t para efectuar pruebas de contraste de medias
para dos grupos, ya fueran tales grupos
relacionados o no relacionados. - El problema es que la prueba t se puede emplear
únicamente para el caso de comparar las medias de
dos grupos. Sin embargo, en muchos casos queremos
comparar simultáneamente tres o más grupos. - La solución es el empleo del Análisis de Varianza
(ANOVA ANalysis Of VAriance). El ANOVA sirve
para el caso de dos, tres, cuatro,..., grupos, ya
sean éstos grupos relacionados o grupos no
relacionados.
53Pruebas de contraste (sobre las medias) para más
de dos grupos
- Veremos, en primer lugar, el caso del ANOVA con
dos o más grupos independientes para cuando
tenemos una única variable independiente (o
factor) Es el ANOVA unifactorial entre-sujetos. - Luego veremos el caso del ANOVA cuando tenemos
dos variables independientes (o factores) cuando
los grupos son independientes Es el ANOVA
factorial entre-sujetos.
54ANOVA de un factor
- En este caso, tenemos dos o más grupos
independientes. - Supongamos que tenemos TRES valores para un
factor - 0,0.5,1 y hacemos 30 pruebas. Si asignamos 10
pruebas a cada nivel del factor podremos medir si
el algoritmo funciona igual con los tres valores
del factor. - Hipótesis nula (todas las medias poblacionales
de los "a" grupos son iguales) - H0 m1m2m3...mkm
- H1 Al menos dos son distintas
55ANOVA de un factor
dfentrek-1 dfdentron-k
dftotaln-1 Si la hipótesis nula es
cierta (y se cumplen los supuestos estadísticos),
la F empírica sigue una distribución F de Fisher,
con dfentre grados de libertad en el numerador y
dfdentro grados de libertad en el
denominador. RELACIÓN ANOVA SStotalSSentreSStot
al y dftotaldfentredftotal
56ANOVA de un factor
- Supuestos estadísticos (para asumir la
distribución subyacente del estadístico de
contraste) - Normalidad. Las puntuaciones de cada grupo deben
seguir aproximadamente una distribución normal.
(El incumplimiento de este supuesto no es
particularmente grave.) - Homogeneidad de Varianzas. La varianza debe ser
similar en los diferentes grupos. (Cuando el
tamaño muestral de cada grupo es similar, el
incumplimiento de este supuesto no es
especialmente grave pero sí lo es cuando los
grupos están claramente desequilibrados.) - Independencia de las observaciones. Los valores
de cada grupo deben ser independientes entre sí.
(El incumplimiento de este supuesto es
particularmente grave.)
57ANOVA de un factor
Es importante observar que, si la hipótesis nula
es cierta, tanto en numerador y el denominador de
la F empírica son estimadores de la misma
varianza (por lo que la razón debería ser cercana
a 1). Ello se ve fácilmente en la siguiente
fórmula
En el denominador, es claro que tenemos una
estimación de la varianza (es el promedio de
cuasivarianzas de los grupos). Pero lo más
relevante es que si la hipótesis nula es cierta,
el numerador estima esa misma varianza. (Pero
observad que si la hipótesis nula no fuera
cierta, el numerador tenderá ser mayor y mayor
que 1.)
58ANOVA de un factor
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
Observa que sólo hay un valor crítico. Recordad
que una F es una t al cuadrado, de ahí que sólo
haya una cola.
59ANOVA de un factor.Comparaciones múltiples
- Una crítica que se puede hacer al ANOVA cuando
tenemos más de dos grupos es que, caso de
rechazar la hipótesis nula, se hace necesario
efectuar hipótesis específicas. (Es decir,
rechazamos la hipótesis nula de que las tres,
cuatro,... medias sean iguales, y ahora toca
decidir de manera específica qué medias son
iguales y cuáles no.) - Ello quiere decir que ahora hemos de efectuar
contrastes entre medias. Tales contrastes pueden
ser contrastes simples (cuando involucran
únicamente dos medias) o contrastes complejos
(cuando involucran tres o más medias). - Empleando otro criterio, los contrastes pueden
ser "a priori" (cuando se plantean antes de
analizar los datos) o "a posteriori" (cuando se
plantean una vez vistos los datos),
60ANOVA de un factor.Comparaciones múltiples
- Claro está, si tenemos 3 grupos experimentales y
queremos hacer los 3 contrastes simples (grupo 1
vs grupo 2 grupo 1 vs grupo 3 grupo 2 vs grupo
3), no basta con hacer la prueba F
correspondiente (o la prueba t) sin más. - El tema es que al hacer varias comparaciones
estamos inflando la probabilidad de error de tipo
I. Es decir, si hacemos un ANOVA, la probabilidad
de rechazar la hipótesis nula siendo cierta es
0'05 (el habitual). Pero si en cada una de los
contrastes empleamos un alpha de 0'05, ello
quiere decir que al hacer los 3 contrastes de
arriba, la probabilidad de cometer algún error de
tipo I en el experimento es mayor de 0'05. (De
manera análoga que comprar muchos billetes de
lotería aumenta nuestras posibilidades de tener
premio.) - Por tanto, se precisa controlar la probabilidad
de error tipo I en cada contraste, que será menor
que 0'05.
61ANOVA de un factor.Comparaciones múltiples
- Existen varias pruebas que permiten controlar el
error tipo I en el experimento. Tales pruebas
dependen de si los contrastes son "a priori" o "a
posteriori", y de si los contrastes son simples o
complejos. - Cuando todos los contrastes son simples y
queremos efectuar todas las comparaciones "a
priori" (o bien algunas -o todas las-
comparaciones "a posteriori"), la prueba más
popular es la prueba de Tukey, que el SPSS
computa fácilmente. - Cuando tenemos unos pocos contrastes "a
posteriori" (v.g., a-1 contrastes o menos), la
prueba recomendada es la de Bonferroni. - Cuando tenemos contrastes "a posteriori" y alguno
de ellos es complejo, hemos de efectuar la prueba
de Scheffé. - Hay muchas otras pruebas de comparaciones
múltiples, como podéis ver en el SPSS.
62ANOVA de dos factores
- Veremos el caso de que tengamos dos variables
independientes (o factores), A y B. El factor A
tiene a niveles y el factor B tiene b niveles.
Como ambos factores están cruzados, tenemos un
total de axb condiciones experimentales. - La ventaja de emplear un diseño factorial es que
podemos examinar no sólo el efecto (principal)
del factor A y el efecto (principal) del factor
B, sino también el llamado efecto de interacción
entre A y B. - En el ANOVA obtendremos TRES razones F, en
consecuencia. - Efecto de interacción de AxB. Se dice que hay
interacción entre A y B cuando el efecto de A
difiere a través de los niveles de B o lo que es
lo mismo, que el efecto de B difiere a través de
los niveles de A. (Gráficamente se corresponde a
líneas que se cruzan o tienden a cruzarse.)
63ANOVA de dos factores
- Tenemos TRES hipótesis nulas para cada razón F
- Efecto principal de A. La hipótesis nula indica
que todas las medias de los niveles de A son
iguales. - Efecto principal de B. La hipótesis nula indica
que todas las medias de los niveles de B son
iguales. - Efecto de la interacción de AxB. La hipótesis
nula indica que el efecto de A es el mismo a
través de los niveles de B (y que el efecto de B
es el mismo a través de los niveles de A).
64ANOVA de un factor
65ANOVA de dos factores
- Es importante señalar que los tres efectos (los
efectos principales de A y de B y el efecto de
interacción de AxB) son estadísticamente
independientes. Por ejemplo, es perfectamente
posible que no sean significativos ni el efecto
principal de A ni el de B, pero que sí lo sea el
efecto de la interacción de AxB. - Si alguno de los efectos en el ANOVA son
significativos, es habitualmente necesario
efectuar más pruebas estadísticas. Por
simplicidad, no las expondremos. (Por ejemplo,
pensemos que el efecto a A hubiera sido
significativo, y que los otros dos efectos no lo
hubieran sido y pensemos que A hubiera tenido 3
grupos. Sería necesario efectuar pruebas de
comparaciones múltiples entre las medias
marginales de A.)
66Contrastes no paramétricos de hipótesis
67Contrastes no parámetricos
- Hasta ahora hemos estudiado las llamadas "pruebas
paramétricas", en las que hemos observado que
había en cada una de ellas una serie de supuestos
estadísticos más o menos severos. - Además, las "pruebas paramétricas" que hemos
visto (sobre la media o sobre la varianza)
requerían que la variable se midiera (como
mínimo) en escalas de intervalo --recuerda que
precisaban el cálculo de medias o varianzas. Ello
hace que no sea posible efectuarlas cuando la
escala sea ordinal. - Por su parte, las pruebas paramétricas pueden ser
efectuadas cuando el nivel de medida sea ordinal,
así como las condiciones de los supuestos
estadísticos (v.g., homogeneidad de varianzas,
normalidad de las puntuaciones) son menos
estrictas.
68Contrastes no parámetricos.
- Veremos CUATRO pruebas no paramétricas, que en
buena medida son paralelas a las vistas en temas
anteriores (pero en versión no paramétrica) - Caso de dos grupos independientes
- Prueba de Mann-Whitney-----(paralela a la t de
grupos independientes) - Caso de dos grupos relacionados
- Prueba de Wilcoxon-----(paralela a la t de
grupos relacionados) - Caso de "a" grupos independientes
- Prueba de Kruskal-Wallis-----(paralela a la
Anova de un factor) - Caso de "a" grupos relacionados
- Prueba de Friedman-----(paralela a la Anova de
dos factores) - Pruebas de normalidad
69Prueba de Mann-Whitney Comparación de grupos
independientes
1. Pasar las puntuaciones a rangos (conjuntamente
en los dos grupos) 2. Calcular la suma de los
rangos del grupo 1
Muestras pequeñas (n1 y n2 ? 20)
Hay tablas para este caso de muestras pequeñas
en todo caso, si la muestra es relativamente
grande, se puede efectuar la aproximación a la
distribución normal
(U es la suma de los rangos asignados a la
muestra 1)
Muestras grandes
La hipótesis nula es que no haya diferencias
entre los dos grupos
70Prueba de WilcoxonComparación de grupos
relacionados
1. Restar las puntuaciones (sujeto a sujeto)
entre grupos 1 y 2, y dejarlas en valor
absoluto. 2. En valores ordinales, hacer una
columna con los rangos para G2gtG1 y otra para
G1gtG2
Muestras pequeñas
Hay tablas para este caso de muestras pequeñas
en todo caso, si la muestra es relativamente
grande, se puede efectuar la aproximación a la
distribución normal
Es la suma de rangos de la columna "G2gtG1"
Muestras grandes
La hipótesis nula es que no haya diferencias
entre los dos grupos
71Prueba de Kruskal-WallisComparación de a grupos
independientes
1. pasar las puntuaciones a rangos (conjuntamente
en los "a" grupos) 2. computar la suma de los
rangos en cada grupo (son las Rj)
Estadístico de contraste
Si la Hipótesis nula es cierta (es decir, que no
haya diferencias entre los grupos), H se
distribuye según chi-cuadrado con a-1 grados de
libertad
Observa que se puede aplicar esta prueba cuando
no se cumplan los supuestos de homogeneidad de
varianzas ni el de normalidad del ANOVA
unifactorial entresujetos.
72Prueba de FriedmanComparación de a grupos
relacionados
1. pasar las puntuaciones a rangos (atención
rangos dentro de cada sujeto) 2. computar la suma
de los rangos en cada grupo (son las Rj)
Estadístico de contraste
Si la Hipótesis nula es cierta (es decir, que no
haya diferencias entre los grupos), este
estadístico de contraste se distribuye según
chi-cuadrado con a-1 grados de libertad
73Contraste de bondad de ajuste
- Es el contraste mas antiguo que existe. Parte de
le idea de comparar frecuencias observados y
esperadas en un modelo teórico a través de un
histograma. - La principal ventaja de este contraste es su
simplicidad y que nos sirve por estudiar el
ajuste a cualquier tipo de distribución conocida - Hipótesis nula X sigue una distribución de tal
forma - Hipótesis alternativa X no sigue tal
distribución - Este método
- ?? se utiliza para v.a. discretas (aunque también
es válido para v.a. continuas) - ?? requiere que n 30 (siendo n el tamaño de la
muestra) - ?? requiere una agrupación con determinadas
condiciones
74Contraste de bondad de ajuste
- La medida de discrepancia D mide la diferencia
entre - la frecuencia esperada (suponiendo cierta H0) y
- la frecuencia obtenida en la muestra para los
valores que puede tomar la v.a. - Se define
- k número de valores distintos que puede tomar la
variable (o número de clases en que hemos
agrupado los valores que puede tomar la
variable). - pi probabilidad del valor (clase) i-ésimo
suponiendo cierta H0. - n tamaño de la muestra
- n pi frecuencia esperada del valor (clase)
i-ésimo suponiendo cierta H0 - ni frecuencia obtenida en la muestra del valor
(clase) i-ésimo. - Suponiendo que H0 es cierta, y cuando se verifica
que n 30 y n pi 5 , para todo i, se tiene
que - siendo r el número de parámetros estimados a
partir de la muestra.
75Contraste de kolmogorov-Smirnov
- Este contraste se va a utilizar para evaluar el
ajuste a distribuciones de probabilidad de tipo
continuo. En este caso el contraste se va a basar
en la comparación entre funciones de distribución
teorícas y observadas. - Hipótesis nula mi variable se ajusta una
determinada distribución de probabilidad contínua
conocida, y por ello puedo calcular
automáticamente la F(x) teórica. - Hipótesis alternativa no se ajusta a es
distribución. - Tomo una muestra alatoria y la ordeno
- Calculo la F(x) función de distribución empírica
de la muestra observada - Calculo la discrepancia máxima entre las Fn(x) y
F(x) - El valor de la discrepancia esta tabulado para Ho
cierta. Así la regla de decisión será si este
valor es mayor que el tabulado rechazar. - Si las muestras son pequeñas es más aconsejable
el test de Shapiro-Wilks.
76Métodos gráficos para comprobar normalidad.
- La gráfica cuantiles-cuantiles normales toma
ventaja de lo que se conoce acerca de los
cuantiles de la distribución normal. - Relación cercana a una línea recta sugiere que
los datos provienen de una distribución normal. - La intersección en el eje vertical es una
estimación de la media de la población y la
pendiente es una estimación de la desviación
estándar s.
77Ejemplo.
- Tenemos un algoritmo metaheurístico que tiene un
parámetro que queremos estudiar. Inicialmente le
damos a este parámetro los valores 0, 0.5 y 1.
- existe diferencia significativa entre los tres
valores?si es así qué valor proporciona mejores
resultados?(estamos maximizando)
78Ejemplo.
- En primer lugar representar los datos
79Ejemplo.
- Dado que el tamaño de las muestras es pequeño,
estudiamos si se cumplen las hipótesis - Normalidad, Homogeneidad de varianzas e
independencia. - Para la normalidad realizamos el contraste de
Kolmogorov-Smirnov y el de Shapiro Wilks, notar
que al ser muestras pequeñas es más aconsejable
el de Shapiro y obtenemos los siguientes valores - Notar que estamos trabajando con el contraste
- H0 El grupo k sigue una distribución normal.
- H1 El grupo k no sigue una distribución normal.
- Para el primer contraste dado que el p-valor es
0.153 no podemos rechazar Ho luego no existe
evidencia de que para el primer valor la
distribución no sea normal. De la misma forma
para el segundo y para el tercero.
80Ejemplo.
- Comprobamos la homogeneidad de varianzas
- El contraste será
- H0 s1s2s3
- H1 Las varianzas de los tres grupos no son
iguales,
- Con la prueba de Levene en el SPSS obtenemos un
P-valor de 0.258, por lo tanto no rechazamos H0,
no existe evidencia en contra de que los tres
grupos tienen la misma varianza.
81Ejemplo.
- Ya tenemos que se cumplen las condiciones por
tanto, podemos realizar la prueba ANOVA. - Si realizamos la prueba ANOVA obtenemos la
siguiente tabla
- El sig es el P-valor que aparece no es 0 sino
3,97e-005, por lo tanto tenemos un p-valor muy
pequeño con lo que rechazamos que para los tres
niveles el algoritmo se comporte de la misma
manera.
82Ejemplo.
- Si hemos rechazado la hipótesis nula, de igualdad
de medias podemos estudiar para que medias no
proporcionan los mismos valores. Utilizamos el
test de Tukey y el de Scheffe.
- Tendríamos dos conjuntos 0,0.5 y otro 1.