Science">
Nothing Special   »   [go: up one dir, main page]

Ensayo de Las Pruebas No Paramétricas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

Universidad central de nicaragua

Psico estadística

Alumna:
Br. Maribel Espino Rojas

Docente:
Lic. Edgard López

Fecha:
Enero 2023

Ensayo de las pruebas no paramétricas


Las pruebas no paramétricas son aquellas que se encargan de analizar datos que no tienen una
distribución particular y se basan una hipótesis, pero los datos no están organizados de forma normal.
Aunque tienen algunas limitaciones, cuentan con resultados estadísticos ordenados que facilita su
comprensión.

Diferencias entre las pruebas no paramétricas y las pruebas paramétricas


Pruebas no paramétricas Pruebas paramétricas
Mayor potencia estadística. Menor potencia estadística.

Se aplican en variables categóricas. Se aplican en variables normales o de intervalo.

Se utilizan para muestras pequeñas. Se utilizan para muestras grandes.

No se conoce la forma de distribución de datos. Su distribución de datos es normal.

No hacen muchas suposiciones. Hacen muchas suposiciones.

Exigen una menor condición de validez. Exigen mayor condición de validez.

Mayor probabilidad de errores. Menor probabilidad de errores.

El cálculo es menos complicado de hacer. El cálculo es complicado de hacer.

Las hipótesis se basan en rangos, mediana y frecuencia de datos. Las hipótesis se basan en datos numéricos.

Los cálculos no son exactos. Los cálculos son demasiado exactos.

Considera los valores perdidos para obtener información. No toma en cuenta los valores perdidos para obtener información.

Las pruebas no paramétricas, también conocidas como pruebas de distribución libre, son las que se
basan en determinadas hipótesis, pero lo datos observados no tienen un organización normal.
Generalmente, las pruebas no paramétricas contienen resultados estadísticos que provienen de su
ordenación, lo que las vuelve más fáciles de comprender.
Las pruebas no paramétricas tienen algunas limitaciones, entre ellas se encuentra que no son lo
suficientemente fuertes cuando se cumple una hipótesis normal. Esto puede provocar que no sea
rechazada aunque sea falsa. Otra de sus limitaciones es que necesitan que la hipótesis se cambie
cuando la prueba no corresponde a la pregunta del procedimiento si la muestra no es proporcional.
Algunas de las características de las pruebas no paramétricas son:
✓ Es un método de medición difícil de aplicar.
✓ Es necesario realizar pruebas de hipótesis.
✓ Las hipótesis son estrictas.
✓ Las observaciones deben de ser independientes.
Tipos de pruebas no paramétricas y su aplicación
Los tipos de pruebas no paramétricas son:
✓ Prueba de signos de una muestra
✓ Prueba de los rangos con signo de Wilcoxon
✓ Prueba U de Mann-Whitney
✓ Prueba de Kruskal-Wallis
✓ Prueba de la mediana de Mood
✓ Prueba de Friedman
Ventajas de las pruebas no paramétricas
Las ventajas de las pruebas no paramétricas son:
✓ Pueden utilizarse en diferentes situaciones, ya que no deben de cumplir con parámetros
estrictos.
✓ Generalmente, sus métodos son más sencillos, lo que las hace más fácil de entender.
✓ Se pueden aplicar en datos no numéricos.
✓ Facilita la obtención de información particular más importante y adecuada para el proceso de
investigación.
Desventajas de las pruebas no paramétricas
Las desventajas de las pruebas no paramétricas son:
✓ No son pruebas sistemáticas.
✓ La distribución varía, lo que complica seleccionar la elección correcta.
✓ Los formatos de aplicación son diferentes y provoca confusión.
✓ Es posible que se pierda información porque los datos recolectados se convierten en
información cualitativa.
✓ Es posible que se necesite tener fuentes y un respaldo con más peso.
Este tipo de estadísticas se pueden utilizar sin el tamaño de la muestra o la estimación de cualquier
parámetro relacionado del que no se tenga información. Dado que las suposiciones son menores,
pueden aplicarse de múltiples formas.
Las pruebas o técnicas no paramétricas engloban una serie de pruebas estadísticas que tienen en
común la ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que ha
sido extraída la muestra. Así, estas técnicas se aplican cuando no sabemos si la población de la cual
se extrae la muestra es normal o aproximadamente normal.
Estas técnicas no paramétricas se utilizan con frecuencia, puesto que existen muchas variables que
no siguen las condiciones de parametricidad. Estas son: el uso de variables cuantitativas continuas,
distribución normal de las muestras, varianzas similares y muestras balanceadas.
Clasificación de las pruebas no paramétricas
En esta clasificación de las pruebas no paramétricas ocurre una falta de consenso a la hora de
agruparlas. Las autoras Berlanga y Rubio (2012) realizaron un resumen de las principales pruebas
paramétricas.
Pruebas no paramétricas de una muestra

• Prueba de Chi-cuadrado de Pearson

Es una prueba muy utilizada cuando el investigador quiere analizar la relación entre dos variables
que son cuantitativas. También es muy utilizada para evaluar en qué medida los datos recogidos en
una variable categórica (distribución empírica) se ajustano no (se parece o no) a una determinada
distribución teórica (uniforma, binomial, multinomial, etcétera).
• Prueba Binomial

Esta prueba permite averiguar si una variable dicotómica sigue o no un determinado modelo de
probabilidad. Permite contrastar la hipótesis de que la proporción observada de aciertos se ajusta a
la proporción teórica de una distribución binomial.
• Prueba de Rachas

Es una prueba que permite determinar si el número de rachas (R) observado en una muestra de
tamaño n es lo suficientemente grande o lo suficientemente pequeño para poder rechazar
la hipótesis de independencia (o aleatoreidad) entre las observaciones.
Una racha es una secuencia de observaciones de un mismo atributo o cualidad. Que haya más o
menos rachas que las esperables por azar en una serie de datos puede ser un indicador de que hay una
variable importante que está condicionando los resultados y que no estamos teniendo en cuenta..
• Prueba de Kolmogorov-Smirnov (K-S)

Esta prueba sirve para contrastar la hipótesis nula de que la distribución de una variable se ajusta
a una determinada distribución teórica de probabilidad (normal, exponencial o la de Poisson). El
hecho de que la distribución de los datos se ajuste o no a una determinada distribución va a sugerirnos
unas técnicas de análisis de datos frente a otras.
Pruebas no paramétricas para dos muestras relacionadas
• Prueba de McNemar

La prueba de McNemar se utiliza para contrastar hipótesis sobre igualdad de proporciones. Se


usa cuando hay una situación en la que las medidas de cada sujeto se repiten. Así, la respuesta
de cada uno de ellos se obtiene dos veces: una vez antes y otra después de un evento específico.
• Prueba de los Signos

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales. Se puede utilizar
para saber si una variable tiende a ser mayor que otra. También para probar la tendencia que
siguen una serie de variables positivas.
• Prueba de Wilcoxon

Permite contrastar la hipótesis de igualdad entre dos medianas poblacionales.


Pruebas no paramétricas para K-muestras relacionadas
• Prueba de Friedman

Se trata de una extensión de la prueba de Wilcoxon. Así, se usa para incluir datos registrados en
más de dos periodos de tiempo o grupos de tres o más sujetos, con un sujeto de cada grupo que
ha sido asignado aleatoriamente a una de las tres o más condiciones.
• Prueba de Cochran

Es idéntica a la anterior, pero se aplica cuando todas las respuestas son binarias. La Q de
Cochran aprueba la hipótesis de que varias variables dicotómicas que están relacionadas entre
sí tienen el mismo promedio.
• Coeficiente de concordancia de W de Kendall

Tiene las mismas indicaciones que la prueba de Friedman. Sin embargo, su uso en investigación
ha sido principalmente para conocer la concordancia entre rangos.
Pruebas no paramétricas para dos muestras independientes
• Prueba U de Mann-Whitney

Es equivalente a la prueba de suma de rangos de Wilcoxon y también a la prueba de dos grupos


Kruskal-Wallis.
• Prueba de Kolmogorov-Smirnov

Esta prueba se usa para contrastar la hipótesis de que dos muestras proceden de la misma
población.
• Prueba de Rachas de Wald-Wolfowitz

Contrasta si dos muestras con datos independientes proceden de poblaciones con la misma
distribución.
• Prueba de reacciones extremas de Moses

Sirve para estudiar si hay diferencia en el grado de dispersión o variabilidad de dos


distribuciones. Se centra en la distribución del grupo de control y es una medida para saber
cuántos valores extremos del grupo experimental influyen en la distribución al combinarse con
el grupo de control.
Pruebas no paramétricas para K-muestras independientes
• Prueba de la Mediana

Contrasta diferencias entre dos o más grupos en relación con su mediana. No se utilizan medias,
bien porque no cumplen las condiciones de normalidad o porque la variable es cuantitativa discreta.
Es similar a la prueba Chi-cuadrado.
• Prueba de Jonckheere-Terpstra

Se trata de la más potente a la hora de analizar una ordenación ascendente o descendente de


las K poblaciones de las que se extraen las muestras.
• Prueba H de Kruskal-Wallis

Por último, la prueba H de Kruskal-Wallis es una extensión de la U de Mann-Whitney y


representa una excelente alternativa al ANOVA de un factor.

También podría gustarte