Science">
EQUIPO 2 - ESTADISTICA - U3 - Parte 2
EQUIPO 2 - ESTADISTICA - U3 - Parte 2
EQUIPO 2 - ESTADISTICA - U3 - Parte 2
TRABAJO UNIDAD #3
Equipo #2
Integrantes:
Roberto González Hermosillo.
H.MATAMOROS,TAMPS. 01/05/2020
Indice
3.4. comparaciones o pruebas de rango multiple………………………….3
Prueba de tuckey………………………………………………………………7
Comparador SNK………………………………………………………………8
Metodo LSD Fisher……………………………………………………………10
Metodo de Benforroni…………………………………………………………11
Comparacion de Duncan……………………………………………………..12
Comparacion Dunett…………………………………………………………..12
Comparaciones multiples de medias………………………………………..14
Diferencia minima significativa……………………………………………….14
Metodo de sidak……………………………………………………………….16
3.5 verifiacion de los supuestos del metodo………………………………..16
Normalidad……………………………………………………………………...21
Varianza constante…………………………………………………………….22
Independencia…………………………………………………………………..23
Validar los supuestos metodos en regresion o ANOVA……………………23
Bibliografia ç…………………………………………………………………….27
3.4 Comparaciones o pruebas de rango múltiple
Una F significativa contesta en forma afirmativa que hay diferencias entre los
tratamientos que se sometieron a prueba, pero no establece cuáles de ellos son
diferentes entre sí. Para saber esto, se recurre a otras técnicas conocidas como pruebas
de rango múltiple. Aquí analizaremos las más comúnmente usadas, a saber:
Para obtener los comparadores Duncan, se toman de la tabla de Duncan los valores de
acuerdo al número de tratamientos y con los grados de libertad del error. Cada uno de
estos valores será multiplicado por el error estándar de la media y éstos serán los
comparadores para determinar cuáles diferencias son significativas
3
El error estándar de la media sería:
4
La prueba de rangos múltiples de duncan utiliza también el concepto de rangos
estudiando. si tenemos que tratamientos calculamos y el rango (o mar la diferencia entre
el valor máximo y el valor mínimo) de la ONU subconjunto de p medios, ordenadas en
forma creciente, diremos que los tratamientos correspondientes a las medias muéstrales
extremas, con las cuales se calculó el rango, son diferentes si este excede cierto valor,
p r que llamaremos el rango mínimo significativo para las p medios ordenados, donde:
Las comparaciones múltiples de las medias permiten examinar cuáles medias son
diferentes y estimar el grado de diferencia. Usted puede evaluar la significancia
estadística de las diferencias entre las medias usando un conjunto de intervalos de
confianza, un conjunto de pruebas de hipótesis o ambos. Los intervalos de confianza
permiten evaluar la significancia práctica de las diferencias entre las medias, además de
la significancia estadística. Como es habitual, la hipótesis nula de no diferencia entre
medias se rechaza si y solo si el intervalo de confianza no contiene el cero.
5
los métodos de Dunnett o MCB son apropiados, porque los intervalos de confianza de
Tukey serán más amplios y las pruebas de hipótesis serán menos potentes para una
tasa de error por familia determinada. Por las mismas razones, MCB es superior a
Dunnett si usted desea eliminar los niveles de factor que no sean los mejores e identificar
cuáles son los mejores o están cerca de serlo. La elección entre los métodos LSD de
Tukey y de Fisher depende de la tasa de error que desee especificar usted: por familia o
individual.
NOTA
El ANOVA de un solo factor también ofrece el método LSD de Fisher para los intervalos
de confianza individuales. El método de Fisher no es un método de comparación múltiple,
pero en cambio contrasta los intervalos de confianza individuales para las diferencias por
pareja entre las medias usando una tasa de error individual. El método LSD de Fisher
infla la tasa de error por familia, la cual se muestra en la salida.
¿Qué método de comparación múltiple debo usar con Ajustar modelo
lineal general o Ajustar modelo de efectos mixtos?
Después de usar Ajustar modelo lineal general o Ajustar modelo de efectos mixtos, utilice
el análisis correspondiente para obtener comparaciones múltiples de las medias:
• El método de comparación
Elija el procedimiento de comparación con base en las medias de grupo que desea
comparar, el tipo de nivel de confianza que desea especificar y qué tan conservadores
6
desea que sean los resultados. "Conservador" en este contexto indica que es probable
que el nivel de confianza real sea mayor que el nivel de confianza que se muestra.
A excepción del método de Fisher, los métodos de comparación múltiple incluyen
protección contra falsos positivos. Cuando las comparaciones múltiples se protegen de
los falsos positivos, los intervalos son más amplios que cuando no hay protección.
A continuación, se resumen algunas de las características de los métodos de
comparación múltiple:
prueba de Tukey
La prueba de Tukey es un método que tiene como fin comparar las medias individuales
provenientes de un análisis de varianza de varias muestras sometidas a tratamientos
distintos.
El test, presentado en el año 1949 por John.W. Tukey, permite discernir si los resultados
obtenidos son significativamente diferentes o no. Se le conoce también como la prueba
de diferencia honestamente significativa de Tukey (Tukey’s HSD test por sus siglas en
inglés).
Tukey permite discernir si las diferencias de resultado entre tres o más tratamientos
diferentes aplicado a tres o más grupos de iguales características, tienen valores
promedio significativa y honestamente distintos.
7
En los experimentos donde se compara entre tres o más tratamientos diferentes
aplicados a igual número de muestras, se requiere discernir si los resultados son
significativamente distintos o no.
La prueba de Tukey no es única, existiendo muchas más pruebas para comparar medias
muestrales, pero esta es una de la más conocidas y aplicadas.
w = q √(MSE /r)
Donde el factor q se obtiene de una tabla (Tabla de Tukey), que consta de filas de
valores q para diferente número de tratamientos o experimentos. Las columnas indican
el valor de factor q para diferentes grados de libertad. Normalmente las tablas
disponibles tienen significancias relativas de 0.05 y 0.01.
8
estadísticas rango estudentizado. A diferencia de la prueba de rangos de Tukey, el
método de Newman-Keuls utiliza diferentes valores críticos para diferentes pares de
comparación de medias. Por lo tanto, el procedimiento es más probable para revelar
diferencias significativas entre las medias de grupo y de cometer errores de tipo I por
rechazar incorrectamente una hipótesis nula cuando es verdadera. En otras palabras, el
procedimiento Neuman-Keuls es más potente pero menos conservadora que la prueba
de rangos de Tukey.
Para determinar si hay una diferencia significativa entre los dos medios con tamaños
iguales de muestra, el método de Newman-Keuls utiliza una fórmula que es idéntica a la
utilizada en la prueba de rangos de Tukey , que calcula la q valor tomando la diferencia
entre dos medias de la muestra y dividiéndolo por el error estándar:
donde representa el rango estudentizado valor, y son los medios de muestra más grande
y más pequeña dentro de un intervalo, es la varianza del error tomada de la tabla de
ANOVA, y es el tamaño de la muestra (número de observaciones dentro de una muestra).
Si se hacen comparaciones con medios de tamaños de muestra desiguales ( ), entonces
donde y representar los tamaños de muestra de los dos medios de muestra. En ambos
casos, MSE (error cuadrático medio) se toma de la ANOVA llevó a cabo en la primera
9
¿Qué es el método de la diferencia menos significativa (LSD) de
Fisher para comparaciones múltiples?
El método LSD de Fisher se utiliza en el ANOVA para crear intervalos de confianza para
todas las diferencias en parejas entre las medias de los niveles de los factores,
controlando al mismo tiempo la tasa de error individual en un nivel especificado.
Posteriormente, el método LSD de Fisher utiliza la tasa de error individual y varias
comparaciones para calcular el nivel de confianza simultáneo para todos los intervalos
de confianza. Este nivel de confianza simultáneo es la probabilidad de que todos los
intervalos de confianza contengan la diferencia verdadera. Es importante considerar la
tasa de error por familia al realizar comparaciones múltiples, porque las probabilidades
de cometer un error de tipo I para una serie de comparaciones son mayores que la tasa
de error de cualquier comparación individual.
Por ejemplo, usted está midiendo los tiempos de respuesta de circuitos integrados de
memoria. Toma una muestra de 25 circuitos integrados de cinco fabricantes diferentes.
El análisis ANOVA produjo un valor p de 0.01, con lo cual usted concluye que al menos
una de las medias de los fabricantes es diferente de las demás.
Usted decide examinar las 10 comparaciones entre las cinco plantas para determinar
específicamente cuáles medias son diferentes. Utilizando el método LSD de Fisher,
usted especifica que cada comparación debe tener una tasa de error individual de 0.05
(equivalente a un nivel de confianza de 95%). Minitab crea estos diez intervalos de
confianza de 95% y calcula que este conjunto produce un nivel de confianza simultáneo
de 71.79%. Entendiendo este contexto, usted puede examinar entonces los intervalos de
confianza para determinar si alguno de ellos no incluye el cero, lo que indica una
diferencia significativa.
Fórmula
Minitab ofrece diferentes métodos de intervalo de confianza para comparar las medias
de los tratamientos. Para el método de Fisher, las cotas del intervalo de confianza y los
10
valores p son iguales independientemente de si las comparaciones son en parejas o con
un control. El método de Fisher utiliza el nivel de confianza individual. La fórmula para
los intervalos de confianza es:
Método de Bonferroni
11
de significación . Este procedimiento trabaja raz onablemente bien cuando se tiene un
número pequeño de grupos (Glantz, 2003). Si la cantidad de tratamientos se incrementa
a ocho o a diez, el valor de t requerido para detectar una diferencia será demasiado
grande, (el valor de será demasiado pequeño), de manera que en la práctica el método
se vuelve incapaz de detectarlas. En tales casos no se recomienda su ( )k 1− 1−α α k α
k k αB =α αB utilización. Esta técnica también se conoce con el nombre de Dunn –
Bonferroni y se publicó por primera vez en 1961.
Comparación Duncan:
Se utiliza para comparar todos los pares de medias. Fue desarrollado por primera vez
por Duncan en 1951 pero posteriormente él mismo modificó su primer método generando
el que ahora se denomina Nuevo método de Rango Múltiple de Duncan. Esta prueba no
requiere de una prueba previa de F, como sucede con la DMS o sea que aún sin ser
significativa la prueba F puede llevarse a cabo.
Cuando se rechaza la hipótesis nula de no diferencia de más de dos medias
(H0: m 1 = m 2 = … = m k) en un análisis de varianza surge la pregunta acerca de cuáles
pares de medias son diferentes, puesto que el rechazo de una hipótesis nula con cuatro
tratamientos (H0: m 1 = m 2 = m 3 = m 4), podría deberse a uno o varios de los seis pares
de diferencias que se pueden tener, esto
es: m 1 ¹ m 2 o m 1 ¹ m 3 o m 1 ¹ m 4 o m 2 ¹ m 3 o m 2 ¹ m 4 o m 3 ¹ m 4
Existen varios procedimientos para determinar cuáles son los pares de medias que son
diferentes. El primero de estos procedimientos, y el más utilizado en el pasado, es el de
la Diferencia Significativa Mínima (DSM) de Fisher publicada en 1935 en su libro The
Design of Experiments. Este procedimiento es una extensión de la prueba t de Student
para el caso de comparación de dos medias con varianza ponderada.
Comparaciones Dunnett
12
El cálculo de la prueba de Dunnett es un procedimiento que se basa en el cálculo de las
declaraciones de confianza acerca de los valores esperados de los verdaderos o
diferencias, por lo tanto, las diferencias entre los grupos de tratamiento media y la media
del grupo de control. Este procedimiento garantiza que la probabilidad de todos los
estados que son simultáneamente correcta es igual a un valor especificado. Al calcular
uno superior (o inferior) caras Intervalo de confianza para el verdadero valor de la
diferencia entre la media del tratamiento y el grupo de control , que constituye la
probabilidad de que este valor real será menor que el superior (o mayor que el inferior)
límite de ese intervalo. Al calcular de dos caras intervalo de confianza , que constituye la
probabilidad de que el valor real será entre el superior y el límite inferior.
Vamos a considerar el caso general donde hay grupos de tratamiento y un grupo control.
Escribiremos:
13
Comparaciones múltiples de medias
yij = µi + uij
Etapa II: Se prueba cada comparación simple por una prueba t al nivel de
DCA , en un bloque ).
Esta prueba determina el valor mínimo necesario para considerar diferentes dos
tratamientos y lo utiliza para comparar los diferentes pares de medias que se deseen
evaluar. Los pares de medias que se comparan son los que han sido planeados antes
14
de ejecutar el experimento, por ello es una prueba para comparaciones planeadas.
Supongamos que despues de haber rechazado la hipótesis global, con base en una
Donde:
15
Como vemos el DMS depende del percentil de la distribución t-Student, el cuadrado
Método de Sidak:
16
Coeficiente de escalabilidad. La evaluación empírica de M puede llevarse a cabo
a través de una adaptación del coeficiente de escalabilidad de Loevinger (1947, 1948)
que Mokken (1971) utilizó para las escalas dicotómicas. Este coeficiente se define
en términos de errores de una escala Guttman que compara un patrón de respuesta
observado con el patrón teórico que debiera seguir una escala acumulada. Para dos
ítems i y k (i < k) se operacionaliza del siguiente modo: Hik=1-(eik/eik(0)) donde eik y
eik(0) son las probabilidades de errores observados y esperados bajo el modelo
de independencia marginal, en cuyo caso Hik sería 0. En la hipotética situación
en que los patrones teóricos y observados coincidieran el coeficiente de
escalabilidad sería 1. El coeficiente de escalabilidad para un ítem (i) podría
obtenerse con respecto al resto de n-1 ítems como una combinación lineal del total
de H obtenidos.
La adaptación de este coeficiente a una escala politómica fue propuesta por Molenaar
(1991, 1997; Sijtsma y Molenaar, 2002). El nuevo coeficiente pondera los errores
en los patrones de respuesta observados respecto a los patrones teóricos. La
ponderación sobre un par de ítems se lleva a cabo teniendo en cuenta el número de
pasos entre opciones involucrados en la resolución de esos ítems. El valor de H
ponderado iguala la razón entre la correlación observada entre dos ítems y la
correlación máxima obtenida a partir de sus frecuencias marginales- Para la
evaluación de su significatividad Molenaar y Sijstma (2000) utilizan un test estadístico
contra la hipótesis nula de H=0. Sin embargo, dado que en condiciones empíricas este
test siempre resulta significativo, es habitual valorar la escalabilidad de un ítem respecto
al punto de corte de 0,30 (Mokken, 1971). Evaluación de la homogeneidad monótona:
Puesto que la proporción de personas que superan una opción de respuesta de un
ítem es no-decreciente sobre los grupos de puntuación creciente (X+) para
comprobar esta propiedad bastaría con formar grupos de sujetos por niveles de
puntuación manifiesta (X+), y comprobar que el porcentaje de personas que superan una
opción se incrementa a medida que se incrementa ésta. Evaluación de la doble
monotonía: La evaluación de la doble monotonía se lleva a cabo definiendo proporciones
univariadas ( ) y bivariadas ( ) de respuestas entre categorías. Con la información
obtenida se forman matrices empíricas (P(++)) de orden n(m-1)xn(m-1) con
17
elementos . Las filas y las columnas se ordenan crecientemente en función de los
marginales de las proporciones. Dado este ordenamiento, las celdas tanto de las filas
como de las columnas deben ser monótonamente no-decrecientes si las ISRF son
invariantemente ordenadas en theta.
Evaluación de la doble monotonía fuerte: Los análisis llevados a cabo para estudiar la
condición de doble monotonía fuerte son similares a los llevados a cabo en la
evaluación de la doble monotonía pero en lugar de comparar las proporciones de
respuestas referidas a los pasos entre ítems las comparaciones se llevan a cabo
sobre las medias aritméticas obtenidas en los ítems.
A) Normalidad
C) Independencia
D )linealidad
E) No-colinealidad
Es decir las dos corrientes principales para entender como función la economía.
1.-Modelo clásico.
Significa que no puede haber demanda sin oferta, cuantos más bienes se produzcan,
mas bienes existirán (oferta).es decir la oferta crea su propia demanda.
2.-Modelo Keynesiano.
18
Es la demanda agregada la que domina sobre la oferta agregada.
Se puede dar la renta sin pleno empleo.se considera que al menos en el mercado del
trabajo puede no estar en competencia perfecta, pues los salarios nominales rígidos a la
baja.
Esto es, la respuesta (Y) se debe distribuir de manera normal, con la misma varianza en
cada tratamiento y las mediciones deben ser independientes. Estos supuestos sobre Y
se traducen en supuestos sobre el termino error ( ε ) en el modelo
Es una práctica común utilizar la muestra de residuos para comprobar los supuestos del
modelo, ya que si los supuestos se cumplen, los residuos o residuales se pueden ver
como una muestra aleatoria de una distribución normal con media cero y varianza
constante.
Recordemos que el modelo que se espera describa los datos en el DCA está dada
por:
19
Cuando se realiza el ANOVA, y sólo cuando éste resulta significativo, entonces se
procede a estimar el modelo ajustado o modelo de trabajo dado por:
Los gorros indican que son estimadores, es decir, valores calculados a partir de los datos
del experimento. El término del error desaparece del modelo estimado, por el hecho de
que su valor esperado es igual a cero (E(εij) = 0
20
Para comprobar cada supuesto existen pruebas analíticas y gráficas que veremos a
continuación. Por sencillez, muchas veces se prefieren las pruebas gráficas.
Éstas tienen el inconveniente de que no son exactas, pero aun así , en la mayoría de las
situaciones prácticas proporcionan la evidencia suficiente en contra o a favor de los
supuestos.
Normalidad
21
Para esto ordenamos los residuos standarizados.
Varianza constante
Una forma de verificar el supuesto de varianza constante (o que los tratamientos tienen
la misma varianza) es graficado los predichos contra residuos, por lo general va en el eje
horizontal y los residuos en el eje vertical. Si los puntos en esta gráfica se distribuyen de
manera aleatoria en una banda horizontal (sin ningún patrón claro y contundente),
entonces es señal d que se cumple el supuesto de que los tratamientos tienen igual
22
varianza. Por el contrario, si se distribuyen con algún patrón claro y contundente, como
por ejemplo una forma de corneta o embudo, entonces es señal de que no se está
cumpliendo el supuesto de varianza constante.}
Independencia
23
el modelo es adecuado y si se cumplen los supuestos de la regresión. Si el modelo no
es adecuado, representará incorrectamente los datos. Por ejemplo:
*Los errores estándar de los coeficientes podrían estar sesgados, conduciendo a valores
t y p incorrectos.
Características de un
modelo de regresión
Verificar usando Soluciones posibles
adecuado
Regresión no lineal
Los residuos tienen una Gráfica de residuos vs. Transformar las variables
varianza constante. ajustes
Mínimos cuadrados
ponderados
24
Gráfica de residuos versus
orden
Agregar una variable de
desfase
Prueba de normalidad
Distancia de Cook
DFITS
Regresión de mínimos
Matriz de correlación de los cuadrados parciales
predictores
25
Transformar las variables
2.-Intentar determinar la causa del problema. Conviene indagar qué tan sensible es el
modelo al problema planteado. Por ejemplo, si tiene un valor atípico, ejecute la regresión
sin esa observación y observe cómo cambian los resultados.
26
Bibliografia
1. https://vdocuments.mx/verificacion-de-los-supuestos-del-modelo.html
2. https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/regression/supporting-topics/model-assumptions/validate-model-
assumptions/
3. http://cms.dm.uba.ar/academico/materias/1ercuat2013/modelo_lineal/teoricas/M
L_Parte%208_2013.pdf
4. https://prezi.com/dxjokvkqe66a/supuestos-del-modelo/
5. http://cursos.aiu.edu/Estadistica%20Superior/PDF/Tema%202.pdfç.
6. file:///C:/Users/Admin/Downloads/337-1267-1-PB.pdf
7. https://www.coursehero.com/file/p5t860s/La-prueba-de-rangos-
m%C3%BAltiples-de-Duncan-utiliza-tambi%C3%A9n-el-concepto-de-rangos/
8. https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-
statistics/anova/supporting-topics/multiple-comparisons/using-multiple-
9. https://es.scribd.com/doc/85273861/Pruebas-de-Rango-Multiple
10. http://cursos.aiu.edu/Estadistica%20Superior/PDF/Tema%202.pdf
27