Please enable JavaScript.
Coggle requires JavaScript to display documents.
Pruebas estadísticas no paramétricas (Las principales pruebas no…
Pruebas estadísticas no paramétricas
Es una rama de la estadística inferencial que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan.
Las principales pruebas no paramétricas son las siguientes:
Prueba χ² de Pearson:
mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis.
Prueba binomial:
Es una prueba exacta de las desviaciones de una teoría de distribución, esperando las observaciones de dos categorías.
Prueba de Anderson-Darling:
Es una prueba no paramétrica sobre los datos de una muestra que provienen de una distribución específica.
Prueba de Cochran:
Es el análisis de dos vías de diseños de bloques aleatorios cuando la variable de respuesta puede tomar sólo dos resultados posibles (codificado como 0 y 1), la prueba de Cochran es una prueba estadística no paramétrica para verificar si 'k tratamientos' tienen efectos idénticos.
Prueba de Cohen kappa:
Es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada para elementos cualitativos
Prueba de Friedman:
Consiste en ordenar los datos por filas o bloques, reemplazandolos por su respectivo orden. Al ordenarlos, debemos considerar la existencia de datos idénticos.
Prueba de Kendall:
Mide el grado de asociación entre varios conjuntos (k) de N entidades.
Prueba de Kolmogórov-Smirnov:
Es una prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de probabilidad entre sí.
Prueba de Kruskal-Wallis:
Es un método no paramétrico para probar si un grupo de datos proviene de la misma población.
Prueba de Kuiper:
Se usa para probar que la evidencia de una muestra de datos contradice si una distribución dada, o un grupo de distribuciones, se contradice.
Prueba de Mann-Whitney o prueba de Wilcoxon:
Es una prueba no paramétrica aplicada a dos muestras independientes.
Prueba de McNemar:
Es una prueba no paramétrica de comparación de proporciones para dos muestras relacionadas.
Prueba de la mediana:
Es una prueba no paramétrica que podemos considerar un caso especial de la prueba de chi-cuadrado, pues se basa en esta última. Su objetivo es comparar las medianas de dos muestras y determinar si pertenecen a la misma población o no.
Prueba de Siegel-Tukey:
Es una prueba no paramétrica que puede aplicarse a los datos medidos al menos en una escala ordinaria. Prueba las diferencias de escala entre dos grupos.
Prueba de los signos:
Es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas.
Coeficiente de correlación de Spearman:
Es una medida de la correlación entre dos variables aleatorias.
Tablas de contingencia:
Se emplean para registrar y analizar la asociación entre dos o más variables, habitualmente de naturaleza cualitativa.
Prueba de Wald-Wolfowitz:
Es una prueba estadística no paramétrica que verifica una hipótesis de aleatoriedad para una secuencia de datos de dos valores.
Prueba de los rangos con signo de Wilcoxon:
Es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas.
Prueba de Fisher:
Es una prueba de significación estadística utilizada en el análisis de tablas de contingencia. Aunque en la práctica se emplea cuando los tamaños de muestra son pequeños, también es válido para todos los tamaños de muestra.
La mayoría de estos test estadísticos están programados en los paquetes estadísticos más frecuentes, quedando para el investigador, simplemente, la tarea de decidir por cuál de todos ellos guiarse o qué hacer en caso de que dos test nos den resultados opuestos. No se puede aplicar todos los test y quedarse con el que mejor convenga para la investigación sin verificar si se cumplen las hipótesis y condiciones necesarias pues, si se violan, invalidan cualquier resultado posterior y son una de las causas más frecuentes de que un estudio sea estadísticamente incorrecto.
Si la distribución de los datos se ajusta a un tipo de distribución conocida, existen otras pruebas que, en la práctica, son más aconsejables pero que así mismo requieren otros supuestos. La estadística a emplear es la estadística paramétrica, dentro de la cual muchas veces podemos encontrar equivalencias entre pruebas pero con diferencias en la potencia entre ambas siendo siempre la potencia de las pruebas no paramétricas menor que la potencia de las pruebas paramétricas equivalentes.