Pruebas paramétricas y no paramétricas
Características
Paramétricas
No Paramétricas
Conforma parte de una rama de la estadística inferencial ,usa estadísticos y criterios de resolución basados en distribuciones conocidas. Bautista et al., (2020)
T DE STUDENT PARA UNA MUESTRA
tipos
Estas engloban una serie de pruebas estadísticas que tiene como denominador común la ausencia de asunciones acerca de la ley de probabilidad que sigue la población de la que ha sido extraída la muestra.
Tipos
PRUEBAS CON UNA SOLA MUESTRA
Parámetros a valores como la media, desviación
estándar y proporciones
Mientras más grande sea la muestra más, exacta será la estimación, mientras más pequeña, más distorsionada será la media de las muestras
Prueba paramétrica debe ejecutar con los siguientes partes:
El tamaño de muestra debe ser de 30 participantes por grupo como mínimo
T DE STUDENT PARA MUESTRAS INDEPENDIENTES
T DE STUDENT PARA MUESTRAS RELACIONADAS
ANOVA CON UN FACTOR INTERSUJETOS
COEFICIENTE DE CORREALCIÓN “R” DE PEARSON
define
Basa sus cálculos presumiendo que la distribución de la variable a estudiar es conocida.
siempre
una
Normalidad
Homocedasticidad
Errores:
Grupos deben presentar variables homogéneas.
Errores que se muestran deben de ser independientes
los
los
Análisis y observaciones que se obtienen de las muestras deben considerarse normales.
el
La variable dependiente se consigue aleatoriamente de una población con una distribución normal. Bautista et al., (2020)
Las suposiciones generalmente se refieren a valores, como la media (µ) de la población.
La variable dependiente se mide en al menos una escala de intervalo.(Guillen, 2019)
Los datos se obtuvieron de poblaciones con varianzas iguales
Una prueba de hipótesis estadística que determina si la media de una población desconocida difiere de un valor especificado.(Guillen, 2019)
Utiliza esta prueba en datos continuos. Sus datos deben ser una muestra aleatoria de una población normal.
es
se
Formula
𝑥̅: Media muestral.
𝑠 ∶ Desviación estándar muestral.
𝑛 ∶ Tamaño de la muestra.
PRUEBAS DE DOS MUESTRAS INDEPENDIENTES
PRUEBAS NO PARAMETRICAS PARA DOS MUESTRAS RELACIONADAS
PRUEBAS NO PARAMÉTRICAS PARA K- MUESTRAS RELACIONADAS
Prueba de las rachas: Es una prueba que nos permite medir hasta qué punto de una variable dicotomía sus atributos puede llegar a influir en las observaciones (Ortega, 2021).
Prueba de Kolmogorov-Smirnov (K-S) para una muestra:Esta prueba nos permite contrastar hipótesis nulas de la distribución de una variable que se ajusta a una determinada distribución teórica o de probabilidad normal, exponencial o la de posición (Ortega, 2021).
Prueba bimodal: Esta prueba nos permite averiguar si una variable dicotómica sigue o no un determinado modelo de probabilidad, lo que nos permite contratar hipótesis de la proporción observada de aciertos ajustes a la proporción teórica de una distribución binomial (Ortega, 2021).
Ji cuadrada o chi cuadrado: Esta prueba de hipótesis se utiliza cuando se quiere comparar las diferencias entre las frecuencias observadas en la distribución de una variable con respecto a las esperadas de acuerdo con la hipótesis nula (Ortega, 2021).
Esta prueba es muy utilizada cuando el investigador quiere realizar una relación entre dos variables que son cuantitativas (Ortega, 2021).
Determina K si el número de las rachas(R) observadas en la muestra de tamaño n es lo suficientemente grande o competentemente pequeño para poder rechazar la hipótesis independiente o de aleatoriedad entre las observaciones (Ortega, 2021).
Se utilizada cuando se quiere evaluar la medida de los datos recogidos en una variable categórica o de distribución empírica a una determinada distribución teórica como son uniforma, binomial y multinomial (Ortega, 2021).
por otro lado
también
también
La prueba Z de Kolmogorov-Smirnov: Se utiliza cuando queremos contrastar hipótesis, porque dos muestras proceden de la misma población, está basada en la diferencia absoluta máxima que existe entre la función de distribución acumulada observada para ambas muestras (Ortega, 2021).
La prueba de las relaciones externas de Moses: Se utiliza cuando se quiere diferencia el grado de dispersión o variabilidad de dos distribuciones, por lo que pone énfasis en el grupo control y es una medida para saber cuántos valores extremos del grupo experimental influyen en la distribución al combinarse con el grupo control (Ortega, 2021).
La U de Mann-Whitney: Esta prueba permite comparar las medidas de una variable cuantitativa para las dos categorías de una variable cualitativa dicotómica (Ortega, 2021).
se puede decir que las pruebas de dependencia suponen que las variables del análisis se puedan dividirse en variables independientes y dependientes, esta evaluación se puede aplicar cuando no se puede asumir los supuestos necesarios para utilizar la prueba de la t de Student (Ortega, 2021).
además
FRIEDMAN: Esta prueba incluye los datos registrados en más de dos periodos de tiempo o grupos de tres o más sujetos, con un sujeto de cada grupo que han sido asignado aleatoriamente a una de las tres o más condiciones(Guillen,2019).
DE COCHRAN: Esta prueba aprueba la hipótesis de las variables dicotómicas que están relacionadas entre sí y las cuales tienen el mismo promedio, esta población sirve como su propio control, donde existe un periodo previo y del otro posterior (Guillen,2019).
SPEARMAN: Esta prueba permite correlacionar dos variables, las cuales son aplicables cuando las mediciones se realizan en una escala ordinal, por ende, se debe aprovechar la clasificación por rangos(Guillen,2019).
WILCOXON: Permite contrastar la hipótesis de igualdad entre dos medidas poblacionales, también permite comparar el rango medio de las dos muestras relacionadas y determinar si existe una deferencia entre ellas(Guillen,2019).
MCNEMAR: Esta prueba se puede utilizar para contrastar hipótesis sobre igualdad de proporciones(Guillen,2019).
PRUEBA DE LOS SIGNOS: Esta nos permite contrastar hipótesis de igualdad entre dos medidas poblacionales, esta también nos permite saber si una variable tiende a ser mayor que otra, nos permite probar la tendencia que siguen una serie de variables positivas( Aragón).
Esta prueba se puede ir ordenando los datos por filas o bloque, también se puede sustituir su respectivo orden, pero siempre y cuando se debe tener en cuentas los datos idénticos(Guillen,2019).
en
Se puede utilizar como una alternativa a la prueba t de Student cuando no se puede suponer la normalidad de las muestras(Guillen,2019).
también
Es común referirse a ellas como pruebas de distribución libre.
Por esta razón
Consiste en una muestra de pares de valores con iguales unidades estadísticas o un grupo de unidades que han sido evaluadas en diferentes ocasiones
Es uno de los test estadísticos mayormente utilizados para probar la igualdad de mas de dos medidas de población
Estadística el coeficiente de correlación de Pearson es una medida de la relacion lineal entre dos variables aleatorias de origen cuantitativa
El procedimiento para pruebas T desapareadas compara las medidas de 2 grupos de casos
Los sujetos deben ser asignados de manera aleatoria a dos grupos
Formula
Donde
𝑛: Número de casos.
𝑠: Desviación típica
𝑀1 y 𝑀2: Medias de ambos grupos,
La valoración de coincidencia se lleva mediante la identificación de pares de valores que se basa en la observación de cada una de las dos muestras
Formula
̅𝐷̅ : Media muestral de la diferencia.
𝑠𝐷 ∶ Desviación estándar de la diferencia.
𝑛 ∶ Tamaño de la muestra.
Existen 𝑛 − 1 grados de libertad asociados con la prueba t para una muestra
Se utiliza un valor critico del 5 % para comprobar la hipótesis de ausencia de diferencias entre las medidas de las poblaciones
Formula
Coeficiente de correlación de Pearson es el índice que se utiliza para medir el grado de relacion en dos variables
Formula
• 𝜎𝑋𝑌 es la covarianza de (𝑋, 𝑌)
• 𝜎𝑋 es la desviación típica de la variable 𝑋
• 𝜎𝑌 es la desviación típica de la variable
Diferencia en las respuestas deben ser de acuerdo al tratamiento, no a otros factores
La
Variable dependiente
Normalidad de los datos en las dos muestras
Homocedasticidad de las varianzas
Supuestos
Que es
En
El
Coeficiente sobre
un estadístico muestral
Variable dependiente
Independencia de las observaciones
Distribución de los residuales debe ser normal
Homocedasticidad
Supuestos
Nivel de medidas de la variable
Distribución normal
Varianza de la diferencia de medidas
Observaciones
Supuestos
Pre tratamiento
Postratamiento