Generacin de documentos cientficos en Informtica - PowerPoint PPT Presentation

1 / 82
About This Presentation
Title:

Generacin de documentos cientficos en Informtica

Description:

Habr a que precisar que se entiende por 'el mejor estimador' ... Estimaci n puntual y por intervalos ... No deber a ser aceptada sin una gran evidencia a favor. ... – PowerPoint PPT presentation

Number of Views:58
Avg rating:3.0/5.0
Slides: 83
Provided by: Fpar9
Category:

less

Transcript and Presenter's Notes

Title: Generacin de documentos cientficos en Informtica


1
Generación de documentos científicos en
Informática
  • Generación de experimentos.
  • Francisco Parreño Torres

2
Intentaremos ver
  • Estimadores
  • Contraste de hipótesis
  • Diferentes contrastes de hipótesis
  • Paramétricos
  • No paramétricos

3
Estimación
  • Un estimador es una cantidad numérica calculada
    sobre una muestra y que esperamos que sea una
    buena aproximación de cierta cantidad con el
    mismo significado en la población (parámetro).
  • Con estimadores se trabaja cada vez que se toma
    una muestra de población y suponíamos que las
    medias, etc eran próximas de las de la
    población.
  • Para la media de una población
  • El mejor es la media de la muestra.
  • Para la frecuencia relativa de una modalidad de
    una variable
  • El mejor es la frecuencia relativa en la
    muestra.
  • Habría que precisar que se entiende por el mejor
    estimador.

4
Es útil conocer la distribución de un estimador?
  • Es la clave para hacer inferencia.
  • Ilustrémoslo con un ejemplo (teorema del límite
    central).
  • Si de una variable conocemos µ y s, sabemos que
    para muestras grandes, la media muestral es
  • aproximadamente normal,
  • con la misma media y,
  • desviación típica mucho menor (error estándar)
  • Es decir si por ejemplo µ60 y s5, y obtenemos
    muestras de tamaño n100,
  • La desv. típica de la media muestral (error
    estándar) es EE5/raiz(100)0,5
  • como la media muestral es aproximadamente normal,
    el 95 de los estudios con muestras ofrecerían
    estimaciones entre 601
  • Dicho de otra manera, al hacer un estudio tenemos
    una confianza del 95 de que la verdadera media
    esté a una distancia de 1.

5
Estimación puntual y por intervalos
  • Se denomina estimación puntual de un parámetro al
    ofrecido por el estimador sobre una muestra.
  • Se denomina estimación confidencial o intervalo
    de confianza para un nivel de confianza 1-a dado,
    a un intervalo que ha sido construido de tal
    manera que con frecuencia 1-a realmente contiene
    al parámetro.
  • Obsérvese que la probabilidad de error (no
    contener al parámetro) es a.
  • A esta probabilidad de error se le llamará prob.
    de error de tipo I o nivel de significación.
  • Valores típicos a0,10 0,05 0,01
  • En general el tamaño del intervalo disminuye con
    el tamaño muestral y aumenta con 1-a.
  • En todo intervalo de confianza hay una noticia
    buena y otra mala
  • La buena hemos usado una técnica que en un
    alto de casos acierta.
  • La mala no sabemos si ha acertado en nuestro
    caso.

6
Contrastando una hipótesis
Son demasiados...
No se si los fumadores pesarán como el resto
unos 70Kg (hipótesis nula)...
Gran diferencia! Rechazo la hipótesis
Muestra aleatoria de fumadores
7
Qué es una hipótesis?
  • Una creencia sobre la población, principalmente
    sus parámetros
  • Media
  • Varianza
  • Proporción/Tasa
  • OJO Si queremos contrastarla, debe establecerse
    antes del análisis.

Creo que mi algoritmo funciona mejor que el otro
8
Introducción breve Los fumadores pesan más?
En la población de no fumadores, el pesomedio es
70 kg. Cómo podríamos demostrar si los
fumadores pesan más ... unos 5 kg más?
70
75
Veamos qué puede ocurrir si tomamos muestras de
tamaño 4 y calculamos el peso medio para cada
caso.
9
Decidir si los fumadores pesan más Tamaño
muestral
70
75
Qué puede ocurrir si tomamosmuestras de tamaño
30 y calculamos el peso medio?
10
Decidir si los fumadores pesan más Tipos de error
Tomemos la decisión basándonosen muestras de
tamaño 4... Puedo cometer 2 tipos de error.
Error de tipo II
70
75
Error de tipo I
11
Identificación de hipótesis
  • Hip. Alternativa H1
  • Niega a H0 (y creemos que es mejor).
  • Los datos pueden mostrar evidencia a favor
  • No debería ser aceptada sin una gran evidencia a
    favor.
  • Hipótesis nula Ho
  • La que contrastamos
  • Los datos pueden refutarla
  • No debería ser rechazada sin una buena razón.

12
Quién es H0?
  • Problema Es mejor mi algoritmo que otro?
    Solamente tenemos en cuenta quien gana.
  • Solución
  • Traducir a lenguaje estadístico
  • Establecer su opuesto
  • Seleccionar la hipótesis nula

13
Quién es H0?
  • Problema La media de desviación de mi algoritmo
    es del 1?
  • Solución
  • Traducir a lenguaje estadístico
  • Establecer su opuesto
  • Seleccionar la hipótesis nula

14
Razonamiento básico
Si supongo que H0 es cierta...
qué hace un científico cuando su teoría no
coincide con sus predicciones?
... el resultado del experimento sería
improbable. Sin embargo ocurrió.
15
Razonamiento básico
Si supongo que H0 es cierta...
Rechazo que H0 sea cierta.
... el resultado del experimento sería
improbable. Sin embargo ocurrió.
16
Razonamiento básico
Si supongo que H0 es cierta...
  • No hay evidencia contra H0
  • No se rechaza H0
  • El experimento no es concluyente
  • El contraste no es significativo

Si una teoría hace predicciones con éxito, queda
probado que es cierta?
... el resultado del experimento es coherente.
17
Región crítica y nivel de significación
  • Nivel de significación a
  • Número pequeño 1 , 5
  • Fijado de antemano por el investigador
  • Es la probabilidad de rechazar H0 cuando es cierta
  • Región crítica
  • Valores improbables si...
  • Es conocida antes de realizar el experimento
    resultados experimentales que refutarían H0

a5
Reg. Crit.
Reg. Crit.
No rechazo H0
18
Contrastes unilateral y bilateral
La posición de la región crítica depende de la
hipótesis alternativa
H1 m¹70
Bilateral
Unilateral
Unilateral
H1 mlt70
H1 mgt70
19
Significación p-valor
a
H0 m70
20
Significación p-valor
No se rechaza H0 m70
a
H0 m70
21
Significación p-valor
Es la probabilidad que tendría una región crítica
que comenzase exactamente en el valor del
estadístico obtenido de la muestra. Es la
probabilidad de tener una muestra que discrepe
aún más que la nuestra de H0. Es la probabilidad
de que por puro azar obtengamos una muestra más
extraña que la obtenida. p es conocido después
de realizar el experimento aleatorio El contraste
es no significativo cuando pgta
P
a
No se rechaza H0 m70
P
a
22
Significación p-valor
Se rechaza H0 m70 Se acepta H1 mgt70
a
23
Significación p-valor
El contraste es estadísticamente significativo
cuando plta Es decir, si el resultado
experimental discrepa más de lo tolerado a
priori.
a
P
Se rechaza H0 m40 Se acepta H1 mgt40
a
P
24
Resumen a, p y criterio de rechazo
  • Sobre a
  • Es número pequeño, preelegido al diseñar el
    experimento
  • Conocido a sabemos todo sobre la región crítica
  • Sobre p
  • Es conocido tras realizar el experimento
  • Conocido p sabemos todo sobre el resultado del
    experimento
  • Sobre el criterio de rechazo
  • Contraste significativo p menor que a

25
Resumen a, p y criterio de rechazo
  • Sobre el criterio de rechazo
  • Contraste significativo p menor que a

26
Ejemplo
  • Problema Está sesgada la moneda?

Experimento Lanzar la moneda repetidamente
P6,25
P25
P3
P50
P12,5
P1,5
27
Riesgos al tomar decisiones
Ejemplo 1 Se juzga a un individuo por la
presunta comisión de un delito
Los datos pueden refutarla La que se acepta si
las pruebas no indican lo contrario Rechazarla
por error tiene graves consecuencias
  • H0 Hipótesis nula
  • Es inocente
  • H1 Hipótesis alternativa
  • Es culpable
  • No debería ser aceptada sin una gran evidencia a
    favor.
  • Rechazarla por error tiene consecuencias
    consideradas menos graves que la anterior

28
Riesgos al contrastar hipótesis
Ejemplo 2 Se cree que un nuevo tratamiento
ofrece buenos resultados
Ejemplo 3 Parece que hay una incidencia de
enfermedad más alta de lo normal
No especulativa
  • H0 Hipótesis nula
  • (Ej.1) Es inocente
  • (Ej.2) El nuevo tratamiento no tiene efecto
  • (Ej.3) No hay nada que destacar
  • H1 Hipótesis alternativa
  • (Ej.1) Es culpable
  • (Ej.2) El nuevo tratamiento es útil
  • (Ej. 3) Hay una situación anormal

Especulativa
29
Tipos de error al tomar una decisión
30
Tipos de error al contrastar hipótesis
31
No se puede tener todo
b
a
  • bP(no rechazar H0/H1 es cierta) potencia del
    contraste.
  • Lo ideal sería minimizar ambos Para un tamaño
    muestral fijo, no se pueden reducir a la vez
    ambos tipos de error.
  • Para reducir b, hay que aumentar el tamaño
    muestral. Cuantos más datos más información.

32
Conclusiones
  • Las hipótesis no se plantean después de observar
    los datos.
  • En ciencia, las hipótesis nula y alternativa no
    tienen el mismo papel
  • H0 Hipótesis científicamente más simple.
  • H1 El peso de la prueba recae en ella.
  • a debe ser pequeño
  • Rechazar una hipótesis consiste en observar si
    plta
  • Rechazar una hipótesis no prueba que sea falsa.
    Podemos cometer error de tipo I
  • No rechazar una hipótesis no prueba que sea
    cierta. Podemos cometer error de tipo II
  • Si decidimos rechazar una hipótesis debemos
    mostrar la probabilidad de equivocarnos.

33
Contrastes paramétricos de hipótesis
34
Pruebas de contraste para un grupo
  • Vamos a ver TRES contrastes.
  • Contraste de hipótesis sobre la media de un grupo
    (con n observaciones independientes)
  • Contraste de hipótesis sobre la proporción en un
    grupo.
  • Tercero, veremos el contraste de hipótesis sobre
    la varianza de un grupo

35
Pruebas de contraste para un grupo
  • Contraste de hipótesis sobre la media de un grupo
    (con n observaciones independientes)
  • Veremos dos casos
  • a) el caso de que conozcamos la varianza
    poblacional (caso improbable)
  • b) el caso de que desconozcamos la varianza
    poblacional (caso usual)
  • a) Caso de conocer la varianza poblacional
  • Hipótesis nula µµ0 Hipótesis alternativa
    µ?µ0
  • Supuestos estadísticos La población de origen es
    normal (o cualquier distribución, caso de que n
    sea grande)
  • Estadístico de contraste

Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
36
Pruebas de contraste para un grupo
b) Caso de DESCONOCER la varianza
poblacional Hipótesis nula µµ0 Hipótesis
alternativa µ?µ0 Supuestos estadísticos La
población de origen es normal (o cualquier
distribución, caso de que n sea
grande) Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-1 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
37
Pruebas de contraste para un grupo
2. Contraste de hipótesis sobre una sola
proporción (n observaciones independientes) Hipót
esis nula pp0 Hipótesis alternativa
p?p0 Supuestos estadísticos La población de
origen sigue una distribución de
Bernoulli. Estadístico de contraste (emplearemos
la aproximación a la normal hay otra fórmula
para el caso de que n sea pequeño)
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según una N(0,1)
38
Pruebas de contraste para un grupo
3. Contraste de hipótesis sobre la varianza (n
observaciones independientes) Hipótesis nula
s2s 20 Hipótesis alternativa s2?s20 Supuestos
estadísticos La población de origen es
normal. Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según una chi-cuadrado con n-1 gl
39
Pruebas de contraste para dos grupos
  • El contraste de hipótesis sobre la diferencia de
    medias de dos grupos
  • El contraste de hipótesis sobre la diferencia de
    dos proporciones
  • El contraste de hipótesis sobre la igualdad de
    varianzas

En las tres situaciones, veremos el caso de que
los grupos sean independientes (no relacionados)
y el caso de que los grupos sean relacionados
40
Pruebas de contraste para dos grupos.Sobre medias
  • Contraste sobre la diferencia de dos medias
    independientes (asumiendo que conozcamos la
    varianza poblacional en cada grupo atención
    caso muy poco realista)
  • Contraste sobre la diferencia de dos medias
    independientes, asumiendo que si bien no
    conocemos la varianza poblacional de los grupos,
    asumimos que éstas son iguales.
  • Contraste sobre la diferencia de dos medias
    independientes, asumiendo que no conocemos la
    varianza poblacional de los grupos y que éstas
    son diferentes.
  • Contraste sobre la diferencia de dos medias de
    grupos relacionados

41
Pruebas de contraste para dos grupos.Sobre medias
  • Contraste de hipótesis sobre la diferencia de
    medias de dos grupos independientes. Caso de
    conocer la varianza poblacional de los grupos

Hipótesis nula µ1µ2 Hipótesis alternativa
µ1?µ2 Supuestos estadísticos Ambas normales (o
cualquier distribución, caso de que los tamaños
muestrales sean grandes) Estadístico de
contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
42
Pruebas de contraste para dos grupos.Sobre medias
  • Contraste de hipótesis sobre la diferencia de
    medias de dos grupos independientes. Varianzas
    poblacionales desconocidas (pero iguales)

Hipótesis nula µ1µ2 Hipótesis alternativa
µ1?µ2 Supuestos estadísticos Ambas normales (o
cualquier distribución, caso de que los tamaños
muestrales sean grandes) Estadístico de
contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n1n2-2 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
43
Pruebas de contraste para dos gruposSobre medias
  • Contraste de hipótesis sobre la diferencia de
    medias de dos grupos independientes. Varianzas
    poblacionales desconocidas (pero diferentes)

Hipótesis nula m1m2 Hipótesis
alternativa m1?m2 Supuestos estadísticos Ambas
normales (o cualquier distribución, caso de que
los tamaños muestrales sean grandes) Estadístico
de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye según t de Student con los
siguientes grados de libertad
44
Pruebas de contraste para dos gruposSobre medias
  • Contraste de hipótesis sobre la diferencia de
    medias de dos grupos relacionados.

Hipótesis nula
Hipótesis alternativa Supuestos
estadísticos (de la población de diferencias)
normales (con varianza poblacional
desconocida) Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-1 gl
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
45
Pruebas de contraste para dos gruposSobre
proporciones
  • Contraste de hipótesis sobre dos varianzas
  • Contraste sobre dos proporciones con
    observaciones independientes
  • Contraste sobre dos proporciones con
    observaciones dependientes

46
Pruebas de contraste para dos grupos Sobre
proporciones
  • Contraste de hipótesis sobre dos proporciones
    (observ. Independientes)

Hipótesis nula p1p2p Hipótesis alternativa
p1?p2 Supuestos estadísticos Ambas de Bernoulli
Estadístico de contraste (emplearemos solo la de
muestras grandes)
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
47
Pruebas de contraste para dos gruposSobre
proporciones
  • Contraste de hipótesis sobre dos proporciones
    (observ. dependientes)

Hipótesis nula p1p2p Hipótesis
alternativa p1?p2 Supuestos estadísticos Ambas
de Bernoulli Estadístico de contraste
(emplearemos solo la de muestras grandes)
después
Observad que si la hipótesis nula fuera cierta,
DB (es decir, el mismo número de personas pasan
de favor a contra, que de contra a favor).
favor
contra
favor
A
B
antes
D
C
contra
48
Pruebas de contraste para dos gruposSobre
proporciones
  • Contraste de hipótesis sobre dos proporciones
    (observ. dependientes) (cont)

Hipótesis nula BD Hipótesis
alternativa B?D Supuestos estadísticos Ambas de
Bernoulli Estadístico de contraste
Si la hipótesis nula es cierta, dicho estadístico
se distribuye N(0,1)
49
Pruebas de contraste para dos gruposVarianzas
  • Contraste de hipótesis sobre dos varianzas
  • Contraste sobre dos varianzas con observaciones
    independientes
  • Contraste sobre dos varianzas con observaciones
    dependientes

50
Pruebas de contraste para dos gruposVarianzas
  • Contraste de hipótesis sobre dos varianzas con
    observaciones independientes

Hipótesis nula s1s2 Hipótesis
alternativa s1?s2 Supuestos estadísticos Ambas
normales Estadístico de contraste
2
2
2
2
Si la hipótesis nula es cierta, dicho estadístico
se distribuye F con n1 gl en el numerador y n2 gl
en el denominador
51
Pruebas de contraste para dos gruposVarianzas
  • Contraste de hipótesis sobre dos varianzas con
    observ. dependientes

Hipótesis nula s1s2 Hipótesis alternativa
s1?s2 Supuestos estadísticos Ambas
normales Estadístico de contraste
2
2
2
2
Si la hipótesis nula es cierta, dicho estadístico
se distribuye t con n-2 gl
Observad que las puntuaciones x son puntuaciones
diferenciales.
52
Pruebas de contraste (sobre las medias) para más
de dos grupos
  • Anteriormente hemos visto el empleo de la prueba
    t para efectuar pruebas de contraste de medias
    para dos grupos, ya fueran tales grupos
    relacionados o no relacionados.
  • El problema es que la prueba t se puede emplear
    únicamente para el caso de comparar las medias de
    dos grupos. Sin embargo, en muchos casos queremos
    comparar simultáneamente tres o más grupos.
  • La solución es el empleo del Análisis de Varianza
    (ANOVA ANalysis Of VAriance). El ANOVA sirve
    para el caso de dos, tres, cuatro,..., grupos, ya
    sean éstos grupos relacionados o grupos no
    relacionados.

53
Pruebas de contraste (sobre las medias) para más
de dos grupos
  • Veremos, en primer lugar, el caso del ANOVA con
    dos o más grupos independientes para cuando
    tenemos una única variable independiente (o
    factor) Es el ANOVA unifactorial entre-sujetos.
  • Luego veremos el caso del ANOVA cuando tenemos
    dos variables independientes (o factores) cuando
    los grupos son independientes Es el ANOVA
    factorial entre-sujetos.

54
ANOVA de un factor
  • En este caso, tenemos dos o más grupos
    independientes.
  • Supongamos que tenemos TRES valores para un
    factor
  • 0,0.5,1 y hacemos 30 pruebas. Si asignamos 10
    pruebas a cada nivel del factor podremos medir si
    el algoritmo funciona igual con los tres valores
    del factor.
  • Hipótesis nula (todas las medias poblacionales
    de los "a" grupos son iguales)
  • H0 m1m2m3...mkm
  • H1 Al menos dos son distintas

55
ANOVA de un factor
dfentrek-1 dfdentron-k
dftotaln-1 Si la hipótesis nula es
cierta (y se cumplen los supuestos estadísticos),
la F empírica sigue una distribución F de Fisher,
con dfentre grados de libertad en el numerador y
dfdentro grados de libertad en el
denominador. RELACIÓN ANOVA SStotalSSentreSStot
al y dftotaldfentredftotal
56
ANOVA de un factor
  • Supuestos estadísticos (para asumir la
    distribución subyacente del estadístico de
    contraste)
  • Normalidad. Las puntuaciones de cada grupo deben
    seguir aproximadamente una distribución normal.
    (El incumplimiento de este supuesto no es
    particularmente grave.)
  • Homogeneidad de Varianzas. La varianza debe ser
    similar en los diferentes grupos. (Cuando el
    tamaño muestral de cada grupo es similar, el
    incumplimiento de este supuesto no es
    especialmente grave pero sí lo es cuando los
    grupos están claramente desequilibrados.)
  • Independencia de las observaciones. Los valores
    de cada grupo deben ser independientes entre sí.
    (El incumplimiento de este supuesto es
    particularmente grave.)

57
ANOVA de un factor
Es importante observar que, si la hipótesis nula
es cierta, tanto en numerador y el denominador de
la F empírica son estimadores de la misma
varianza (por lo que la razón debería ser cercana
a 1). Ello se ve fácilmente en la siguiente
fórmula
En el denominador, es claro que tenemos una
estimación de la varianza (es el promedio de
cuasivarianzas de los grupos). Pero lo más
relevante es que si la hipótesis nula es cierta,
el numerador estima esa misma varianza. (Pero
observad que si la hipótesis nula no fuera
cierta, el numerador tenderá ser mayor y mayor
que 1.)
58
ANOVA de un factor
Región de mantenimiento de la hipótesis nula y
región de rechazo de la hipótesis nula (asumimos,
por simplicidad, un alpha de 0'05).
Observa que sólo hay un valor crítico. Recordad
que una F es una t al cuadrado, de ahí que sólo
haya una cola.
59
ANOVA de un factor.Comparaciones múltiples
  • Una crítica que se puede hacer al ANOVA cuando
    tenemos más de dos grupos es que, caso de
    rechazar la hipótesis nula, se hace necesario
    efectuar hipótesis específicas. (Es decir,
    rechazamos la hipótesis nula de que las tres,
    cuatro,... medias sean iguales, y ahora toca
    decidir de manera específica qué medias son
    iguales y cuáles no.)
  • Ello quiere decir que ahora hemos de efectuar
    contrastes entre medias. Tales contrastes pueden
    ser contrastes simples (cuando involucran
    únicamente dos medias) o contrastes complejos
    (cuando involucran tres o más medias).
  • Empleando otro criterio, los contrastes pueden
    ser "a priori" (cuando se plantean antes de
    analizar los datos) o "a posteriori" (cuando se
    plantean una vez vistos los datos),

60
ANOVA de un factor.Comparaciones múltiples
  • Claro está, si tenemos 3 grupos experimentales y
    queremos hacer los 3 contrastes simples (grupo 1
    vs grupo 2 grupo 1 vs grupo 3 grupo 2 vs grupo
    3), no basta con hacer la prueba F
    correspondiente (o la prueba t) sin más.
  • El tema es que al hacer varias comparaciones
    estamos inflando la probabilidad de error de tipo
    I. Es decir, si hacemos un ANOVA, la probabilidad
    de rechazar la hipótesis nula siendo cierta es
    0'05 (el habitual). Pero si en cada una de los
    contrastes empleamos un alpha de 0'05, ello
    quiere decir que al hacer los 3 contrastes de
    arriba, la probabilidad de cometer algún error de
    tipo I en el experimento es mayor de 0'05. (De
    manera análoga que comprar muchos billetes de
    lotería aumenta nuestras posibilidades de tener
    premio.)
  • Por tanto, se precisa controlar la probabilidad
    de error tipo I en cada contraste, que será menor
    que 0'05.

61
ANOVA de un factor.Comparaciones múltiples
  • Existen varias pruebas que permiten controlar el
    error tipo I en el experimento. Tales pruebas
    dependen de si los contrastes son "a priori" o "a
    posteriori", y de si los contrastes son simples o
    complejos.
  • Cuando todos los contrastes son simples y
    queremos efectuar todas las comparaciones "a
    priori" (o bien algunas -o todas las-
    comparaciones "a posteriori"), la prueba más
    popular es la prueba de Tukey, que el SPSS
    computa fácilmente.
  • Cuando tenemos unos pocos contrastes "a
    posteriori" (v.g., a-1 contrastes o menos), la
    prueba recomendada es la de Bonferroni.
  • Cuando tenemos contrastes "a posteriori" y alguno
    de ellos es complejo, hemos de efectuar la prueba
    de Scheffé.
  • Hay muchas otras pruebas de comparaciones
    múltiples, como podéis ver en el SPSS.

62
ANOVA de dos factores
  • Veremos el caso de que tengamos dos variables
    independientes (o factores), A y B. El factor A
    tiene a niveles y el factor B tiene b niveles.
    Como ambos factores están cruzados, tenemos un
    total de axb condiciones experimentales.
  • La ventaja de emplear un diseño factorial es que
    podemos examinar no sólo el efecto (principal)
    del factor A y el efecto (principal) del factor
    B, sino también el llamado efecto de interacción
    entre A y B.
  • En el ANOVA obtendremos TRES razones F, en
    consecuencia.
  • Efecto de interacción de AxB. Se dice que hay
    interacción entre A y B cuando el efecto de A
    difiere a través de los niveles de B o lo que es
    lo mismo, que el efecto de B difiere a través de
    los niveles de A. (Gráficamente se corresponde a
    líneas que se cruzan o tienden a cruzarse.)

63
ANOVA de dos factores
  • Tenemos TRES hipótesis nulas para cada razón F
  • Efecto principal de A. La hipótesis nula indica
    que todas las medias de los niveles de A son
    iguales.
  • Efecto principal de B. La hipótesis nula indica
    que todas las medias de los niveles de B son
    iguales.
  • Efecto de la interacción de AxB. La hipótesis
    nula indica que el efecto de A es el mismo a
    través de los niveles de B (y que el efecto de B
    es el mismo a través de los niveles de A).

64
ANOVA de un factor
65
ANOVA de dos factores
  • Es importante señalar que los tres efectos (los
    efectos principales de A y de B y el efecto de
    interacción de AxB) son estadísticamente
    independientes. Por ejemplo, es perfectamente
    posible que no sean significativos ni el efecto
    principal de A ni el de B, pero que sí lo sea el
    efecto de la interacción de AxB.
  • Si alguno de los efectos en el ANOVA son
    significativos, es habitualmente necesario
    efectuar más pruebas estadísticas. Por
    simplicidad, no las expondremos. (Por ejemplo,
    pensemos que el efecto a A hubiera sido
    significativo, y que los otros dos efectos no lo
    hubieran sido y pensemos que A hubiera tenido 3
    grupos. Sería necesario efectuar pruebas de
    comparaciones múltiples entre las medias
    marginales de A.)

66
Contrastes no paramétricos de hipótesis
67
Contrastes no parámetricos
  • Hasta ahora hemos estudiado las llamadas "pruebas
    paramétricas", en las que hemos observado que
    había en cada una de ellas una serie de supuestos
    estadísticos más o menos severos.
  • Además, las "pruebas paramétricas" que hemos
    visto (sobre la media o sobre la varianza)
    requerían que la variable se midiera (como
    mínimo) en escalas de intervalo --recuerda que
    precisaban el cálculo de medias o varianzas. Ello
    hace que no sea posible efectuarlas cuando la
    escala sea ordinal.
  • Por su parte, las pruebas paramétricas pueden ser
    efectuadas cuando el nivel de medida sea ordinal,
    así como las condiciones de los supuestos
    estadísticos (v.g., homogeneidad de varianzas,
    normalidad de las puntuaciones) son menos
    estrictas.

68
Contrastes no parámetricos.
  • Veremos CUATRO pruebas no paramétricas, que en
    buena medida son paralelas a las vistas en temas
    anteriores (pero en versión no paramétrica)
  • Caso de dos grupos independientes
  • Prueba de Mann-Whitney-----(paralela a la t de
    grupos independientes)
  • Caso de dos grupos relacionados
  • Prueba de Wilcoxon-----(paralela a la t de
    grupos relacionados)
  • Caso de "a" grupos independientes
  • Prueba de Kruskal-Wallis-----(paralela a la
    Anova de un factor)
  • Caso de "a" grupos relacionados
  • Prueba de Friedman-----(paralela a la Anova de
    dos factores)
  • Pruebas de normalidad

69
Prueba de Mann-Whitney Comparación de grupos
independientes
1. Pasar las puntuaciones a rangos (conjuntamente
en los dos grupos) 2. Calcular la suma de los
rangos del grupo 1
Muestras pequeñas (n1 y n2 ? 20)
Hay tablas para este caso de muestras pequeñas
en todo caso, si la muestra es relativamente
grande, se puede efectuar la aproximación a la
distribución normal
(U es la suma de los rangos asignados a la
muestra 1)

Muestras grandes
La hipótesis nula es que no haya diferencias
entre los dos grupos
70
Prueba de WilcoxonComparación de grupos
relacionados
1. Restar las puntuaciones (sujeto a sujeto)
entre grupos 1 y 2, y dejarlas en valor
absoluto. 2. En valores ordinales, hacer una
columna con los rangos para G2gtG1 y otra para
G1gtG2
Muestras pequeñas
Hay tablas para este caso de muestras pequeñas
en todo caso, si la muestra es relativamente
grande, se puede efectuar la aproximación a la
distribución normal
Es la suma de rangos de la columna "G2gtG1"
Muestras grandes

La hipótesis nula es que no haya diferencias
entre los dos grupos
71
Prueba de Kruskal-WallisComparación de a grupos
independientes
1. pasar las puntuaciones a rangos (conjuntamente
en los "a" grupos) 2. computar la suma de los
rangos en cada grupo (son las Rj)
Estadístico de contraste
Si la Hipótesis nula es cierta (es decir, que no
haya diferencias entre los grupos), H se
distribuye según chi-cuadrado con a-1 grados de
libertad
Observa que se puede aplicar esta prueba cuando
no se cumplan los supuestos de homogeneidad de
varianzas ni el de normalidad del ANOVA
unifactorial entresujetos.
72
Prueba de FriedmanComparación de a grupos
relacionados
1. pasar las puntuaciones a rangos (atención
rangos dentro de cada sujeto) 2. computar la suma
de los rangos en cada grupo (son las Rj)
Estadístico de contraste
Si la Hipótesis nula es cierta (es decir, que no
haya diferencias entre los grupos), este
estadístico de contraste se distribuye según
chi-cuadrado con a-1 grados de libertad
73
Contraste de bondad de ajuste
  • Es el contraste mas antiguo que existe. Parte de
    le idea de comparar frecuencias observados y
    esperadas en un modelo teórico a través de un
    histograma.
  • La principal ventaja de este contraste es su
    simplicidad y que nos sirve por estudiar el
    ajuste a cualquier tipo de distribución conocida
  • Hipótesis nula X sigue una distribución de tal
    forma
  • Hipótesis alternativa X no sigue tal
    distribución
  • Este método
  • ?? se utiliza para v.a. discretas (aunque también
    es válido para v.a. continuas)
  • ?? requiere que n 30 (siendo n el tamaño de la
    muestra)
  • ?? requiere una agrupación con determinadas
    condiciones

74
Contraste de bondad de ajuste
  • La medida de discrepancia D mide la diferencia
    entre
  • la frecuencia esperada (suponiendo cierta H0) y
  • la frecuencia obtenida en la muestra para los
    valores que puede tomar la v.a.
  • Se define
  • k número de valores distintos que puede tomar la
    variable (o número de clases en que hemos
    agrupado los valores que puede tomar la
    variable).
  • pi probabilidad del valor (clase) i-ésimo
    suponiendo cierta H0.
  • n tamaño de la muestra
  • n pi frecuencia esperada del valor (clase)
    i-ésimo suponiendo cierta H0
  • ni frecuencia obtenida en la muestra del valor
    (clase) i-ésimo.
  • Suponiendo que H0 es cierta, y cuando se verifica
    que n 30 y n pi 5 , para todo i, se tiene
    que
  • siendo r el número de parámetros estimados a
    partir de la muestra.

75
Contraste de kolmogorov-Smirnov
  • Este contraste se va a utilizar para evaluar el
    ajuste a distribuciones de probabilidad de tipo
    continuo. En este caso el contraste se va a basar
    en la comparación entre funciones de distribución
    teorícas y observadas.
  • Hipótesis nula mi variable se ajusta una
    determinada distribución de probabilidad contínua
    conocida, y por ello puedo calcular
    automáticamente la F(x) teórica.
  • Hipótesis alternativa no se ajusta a es
    distribución.
  • Tomo una muestra alatoria y la ordeno
  • Calculo la F(x) función de distribución empírica
    de la muestra observada
  • Calculo la discrepancia máxima entre las Fn(x) y
    F(x)
  • El valor de la discrepancia esta tabulado para Ho
    cierta. Así la regla de decisión será si este
    valor es mayor que el tabulado rechazar.
  • Si las muestras son pequeñas es más aconsejable
    el test de Shapiro-Wilks.

76
Métodos gráficos para comprobar normalidad.
  • La gráfica cuantiles-cuantiles normales toma
    ventaja de lo que se conoce acerca de los
    cuantiles de la distribución normal.
  • Relación cercana a una línea recta sugiere que
    los datos provienen de una distribución normal.
  • La intersección en el eje vertical es una
    estimación de la media de la población y la
    pendiente es una estimación de la desviación
    estándar s.

77
Ejemplo.
  • Tenemos un algoritmo metaheurístico que tiene un
    parámetro que queremos estudiar. Inicialmente le
    damos a este parámetro los valores 0, 0.5 y 1.
  • existe diferencia significativa entre los tres
    valores?si es así qué valor proporciona mejores
    resultados?(estamos maximizando)

78
Ejemplo.
  • En primer lugar representar los datos

79
Ejemplo.
  • Dado que el tamaño de las muestras es pequeño,
    estudiamos si se cumplen las hipótesis
  • Normalidad, Homogeneidad de varianzas e
    independencia.
  • Para la normalidad realizamos el contraste de
    Kolmogorov-Smirnov y el de Shapiro Wilks, notar
    que al ser muestras pequeñas es más aconsejable
    el de Shapiro y obtenemos los siguientes valores
  • Notar que estamos trabajando con el contraste
  • H0 El grupo k sigue una distribución normal.
  • H1 El grupo k no sigue una distribución normal.
  • Para el primer contraste dado que el p-valor es
    0.153 no podemos rechazar Ho luego no existe
    evidencia de que para el primer valor la
    distribución no sea normal. De la misma forma
    para el segundo y para el tercero.

80
Ejemplo.
  • Comprobamos la homogeneidad de varianzas
  • El contraste será
  • H0 s1s2s3
  • H1 Las varianzas de los tres grupos no son
    iguales,
  • Con la prueba de Levene en el SPSS obtenemos un
    P-valor de 0.258, por lo tanto no rechazamos H0,
    no existe evidencia en contra de que los tres
    grupos tienen la misma varianza.

81
Ejemplo.
  • Ya tenemos que se cumplen las condiciones por
    tanto, podemos realizar la prueba ANOVA.
  • Si realizamos la prueba ANOVA obtenemos la
    siguiente tabla
  • El sig es el P-valor que aparece no es 0 sino
    3,97e-005, por lo tanto tenemos un p-valor muy
    pequeño con lo que rechazamos que para los tres
    niveles el algoritmo se comporte de la misma
    manera.

82
Ejemplo.
  • Si hemos rechazado la hipótesis nula, de igualdad
    de medias podemos estudiar para que medias no
    proporcionan los mismos valores. Utilizamos el
    test de Tukey y el de Scheffe.
  • Tendríamos dos conjuntos 0,0.5 y otro 1.
Write a Comment
User Comments (0)
About PowerShow.com