Pruebas no paramétricas
Estadística II - MEST2.
César Morgado Pérez
Pruebas para una sola población
. Pruebas para dos poblaciones pareadas
. Pruebas para dos poblaciones independientes
Prueba de tres o más poblaciones independientes
Prueba de independencia y homogeneidad
Prueba de Bondad de Ajuste
Prueba Binomial para una sola muestra
Prueba de la tendencia Cox Stuart
Prueba U de Mann-Whitney
La prueba de la mediana
Prueba de rachas Wald-Wolfowitz
Prueba de Mac Nemar
Prueba de signos
Prueba de Wilcoxon
Tablas de contingencia
Prueba de independencia con Ji-Cuadrada
Extensión de la prueba de la mediana
Comparación de varias poblaciones Kruskall-Wallis
Prueba de bondad y ajuste basada en Ji-Cuadrada
Prueba de Kolmogorov-Smirnov para una muestra
Prueba de Kolmogorov-Smirnov para dos muestras
Otras
Variable dicotómica con la esperada en una población binomial y con ello poder hacer inferencia acerca de la población total
Supuestos
•Los resultados en cada ensayo pueden ser clasificados como éxito o fracaso
• La probabilidad de éxito, denotada por 𝑝, permanece constante de ensayo a ensayo
• Los 𝑛 ensayos son independientes
Distribución Binomial
Este test es una alternativa al test paramétrico para 𝐻0: 𝛽 = 0 en el modelo de regresión lineal
𝑦 = 𝛼 + 𝛽𝑥 + 𝜀 . La hipótesis nula en esta prueba implica que la pendiente de la recta es 0.
Hipótesis
A.
𝐻0: No existe tendencia
a. En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐)= 𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) = 1⁄2 ∀ 𝑖
b. También podemos escribir de manera abreviada 𝑝𝑖 = 1⁄2
𝐻1: Existe una tendencia creciente o decreciente
c. En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐) ≠𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) ≠ 1⁄2 ∀ 𝑖 / 𝑝𝑖 ≠ 1⁄2
B.
𝐻0: No existe tendencia creciente
En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐) ≤ 𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) ≤ 1⁄2 ∀ 𝑖/ 𝑝𝑖 ≤ 1⁄2
𝐻1: Existe una tendencia creciente o decreciente
En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐) > 𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) > 1⁄2 ∀ 𝑖/ 𝑝𝑖 > 1⁄2
C.
𝐻0: No existe tendencia decreciente
En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐) ≥ 𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) ≥ 1⁄2 ∀ 𝑖/ 𝑝𝑖 ≤ 1⁄2
𝐻1: Existe una tendencia creciente o decreciente
En este caso 𝑃(𝑥𝑖 < 𝑥𝑖+𝑐) < 𝑃(𝑥𝑖 > 𝑥𝑖+𝑐) < 1⁄2 ∀ 𝑖/ 𝑝𝑖 < 1⁄2
Regla de decisión:
A. Para valores suficientemente grandes o valores suficientemente pequeños de 𝑆 la región crítica bajo 𝐻0 es:
𝑝(𝑟 ≤ 𝑡2) ≈ 𝛼⁄2 y 𝑝(𝑟 > 𝑡1) ≈ 𝛼⁄2
Por lo tanto rechazamos 𝐻0 si 𝑆 ≤ 𝑡2 ó 𝑆 > 𝑡1.
B. Para valores muy grandes de 𝑆 significa que 𝐻0 es falsa. La región crítica consiste en todos los valores de 𝑆 mayores a 𝑡1, en términos probabilísticos la región de rechazo es aquella que cumple
𝑝(𝑟 > 𝑡1) = 𝛼
Por lo tanto, rechazamos 𝐻0 al nivel de significancia 𝛼 si: 𝑇 > 𝑡1
C. Para valores muy pequeños de 𝑆 significa que 𝐻0 es falsa. La región crítica es:
𝑝(𝑟 ≤ 𝑡2) = 𝛼
Por lo tanto, rechazamos 𝐻0 al nivel de significancia 𝛼 si: 𝑇 ≤ 𝑡2
La prueba de U de Mann-Whitney está diseñada para determinar si dos muestras han sido extraídas de la misma población. Sirve como alternativa a la prueba 𝑡 cuando el supuesto poblacional con varianzas iguales no se puede verificar.
Se tienen dos poblaciones 𝑥1, 𝑥2 … , 𝑥𝑛1 y 𝑦1, 𝑦2 … , 𝑦𝑛2 de tamaño 𝑛1 y 𝑛2 respectivamente.
Las muestras se han tomado aleatoriamente y en forma independiente, no solamente entre los grupos considerados, sino además dentro de cada grupo.
Sea:
𝐹(𝑡) es la función de distribución de probabilidad de 𝑋
𝐺(𝑡) es la función de distribución de probabilidad de 𝑌
Hipótesis
𝐴. 𝐻0: 𝐹(𝑡) = 𝐺(𝑡) ∀ 𝑡 𝑣𝑠 𝐻1: 𝐺(𝑡) ≠ 𝐹(𝑡) para alguna 𝑡
𝐵. 𝐻0: 𝐹(𝑡) = 𝐺(𝑡) ∀ 𝑡 𝑣𝑠 𝐻1: 𝐺(𝑡) > 𝐹(𝑡) para alguna 𝑡
𝐶. 𝐻0: 𝐹(𝑡) = 𝐺(𝑡) ∀ 𝑡 𝑣𝑠 𝐻1: 𝐺(𝑡) < 𝐹(𝑡) para alguna 𝑡
La hipótesis nula prueba que las dos distribuciones son iguales, mientras que las hipótesis alternativas nos dicen si la distribución de 𝑌 tiende a ser más grande o más pequeña que 𝑋 o diferente.
Estadístico de prueba:
Se ordenan las dos muestras combinando los 𝑛 = 𝑛1 + 𝑛2 valores de 𝑋 y 𝑌 de menor a mayor.
𝑠1 denota el rango de 𝑦1
𝑠2 denota el rango de 𝑦2
⋮
𝑠𝑛 denota el rango de 𝑦𝑛
Región de rechazo
A. Debe tomarse una región crítica de dos colas, formada por los valores de 𝑈 tales que:
𝑈𝑥 ≤ 𝑘1
𝑈𝑦 ≥ 𝑘2
siendo la región de aceptación la que verifica la igualdad bajo 𝐻0:
𝑃(𝑘1 < 𝑈𝑚 < 𝑘2) = 1 − 𝛼
donde 𝛼 es el nivel de significación.
B. Si la probabilidad 𝑝 obtenida en la tabla U Mann Whitney es tal que
𝑝 <𝛼
se rechaza la hipótesis nula 𝐻0.
C. Si la probabilidad 𝑝 obtenida en la tabla U Mann Whitney es tal que
𝑝 >𝛼
se rechaza la hipótesis nula 𝐻0.
Este test tiene como finalidad verificar si dos muestras independientes proceden de poblaciones con la misma mediana. Es de utilidad cuando no se pueda verificar el supuesto de normalidad requerido para la prueba 𝑡 𝑆𝑡𝑢𝑒𝑛𝑡 para dos muestras independientes
Datos
Se tienen dos muestras aleatorias: 𝑥1, 𝑥2, … , 𝑥𝑛1 y 𝑦1, 𝑦2, … , 𝑦𝑛2
De tamaño 𝑛1 y 𝑛2 que además cumplen con los siguientes supuestos:
• Las dos muestras se han tomado de forma independiente, solamente entre los grupos considerados, sino además dentro de cada grupo
• Las mediciones consideradas alcanzan al menos el nivel ordinal.
Y se ordenan de menor a mayor la muestra conjunta, donde se combinan las observaciones 𝑥𝑖 e 𝑦𝑖 entre sí, y se determina la mediana muestral de la muestra combinada (Me).
Sea:
𝐹(𝑡) es la función de distribución de probabilidad de 𝑋
𝐺(𝑡) es la función de distribución de probabilidad de 𝑌
Hipótesis
𝐻0: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 𝑑𝑒 𝐹(𝑡) = 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 𝑑𝑒 𝐺(𝑡) ∀𝑡
𝐻1: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 𝑑𝑒 𝐹(𝑡) ≠ 𝑀𝑒𝑑𝑖𝑛𝑎 𝑑𝑒 𝐹(𝑡) para alguna 𝑡
Estadístico de prueba
Las observaciones se comparan con la mediana combinada para obtener las frecuencias de observaciones de ambas muestras que exceden a la mediana.
La distribución muestral bajo 𝐻0 es hipergeométrica.
Si el número de casos es pequeño 𝑛 < 30, con frecuencia se utiliza la prueba exacta de Fisher, la cual se basa en el cálculo de la expresión anterior. Para 𝑛 > 30 se puede utilizar la aproximación de una 𝜒 2 con 1 grado de libertad.
Regla de decisión:
Rechazamos 𝐻0 al nivel de significancia 𝛼 si 𝑊 > 𝜒2𝛼,1
El objetivo de este test es el de verificar que dos muestras independientes proceden de poblaciones con distribuciones continuas idénticas. Definimos una racha como una sucesión de símbolos de la misma clase limitada por símbolos
de clase distinta.
Datos
Se tienen dos muestras aleatorias: 𝑥1, 𝑥2, … , 𝑥𝑛1 y 𝑦1, 𝑦2, … , 𝑦𝑛2
Hipótesis
A.
𝐻0 = El patrón de ocurrencia de las dos muestras es determinado por un proceso aleatorio
𝐻1 = El patrón de ocurrencia no es aleatorio
B.
𝐻0 = El patrón de ocurrencia de las dos muestras es determinado por un proceso aleatorio
𝐻1 = El patrón de ocurrencia no es aleatorio (debido a la presencia de pocas rachas)
C.
𝐻0 = El patrón de ocurrencia de las dos muestras es determinado por un proceso aleatorio
𝐻1 = El patrón de ocurrencia no es aleatorio (debido a la presencia de muchas rachas)
Estadístico de prueba
Cuando 𝑛1 y 𝑛2 sean menos a 20
Se combinan las 𝑛 = 𝑛1 + 𝑛2 observaciones de menor a mayor y se calcula:
𝑅 = El número de rachas
Región de rechazo
A.
Rechazamos 𝐻0 al nivel de significancia 𝛼 si
𝑅 ≤ 𝑅𝑚𝑖𝑛𝑖𝑚𝑜 = 𝑅𝑛1,𝑛2,𝛼⁄2 ó cuando 𝑅 ≥ 𝑅𝑚𝑥𝑖𝑚𝑜 = 𝑅𝑛1,𝑛2,1−𝛼⁄2
B.
Rechazamos 𝐻0 al nivel de significancia 𝛼 si:
𝑅 ≤ 𝑅𝑚𝑖𝑛𝑖𝑚𝑜 = 𝑅𝑛1,𝑛2,𝛼⁄2
C.
Rechazamos 𝐻0 al nivel de significancia 𝛼 si:
𝑅 ≤ 𝑅maximo= 𝑅𝑛1,𝑛2,𝛼⁄2
Aproximación a la normal
Cuando 𝑛1 y 𝑛2 son mayores a 20 se utiliza una aproximación normal. Se sabe que:
Y utilizando el Teorema del Límite Central se tiene que la variable 𝑧 expresa por:
Se distribuye como una normal estándar ó 𝑁(0,1)
Con región rechazo:
A. Rechaza 𝐻0 al nivel de significancia 𝛼 si |𝑍| ≥ 𝑍𝛼/2
B. Rechaza 𝐻0 al nivel de significancia 𝛼 si 𝑍 ≥ 𝑍𝛼
C. Rechaza 𝐻0 al nivel de significancia 𝛼 si 𝑍 ≤ 𝑍𝛼
La prueba es famosa porque es muy utilizada en pruebas donde existe un antes y un después.
Datos
Los datos consisten de observaciones bivariadas aleatorias (𝑥1, 𝑦1 ), (𝑥2, 𝑦2 ), … , (𝑥𝑛, 𝑦𝑛 ). La escala de medida de 𝑥𝑖 y de 𝑥1, 𝑦𝑖 es nominal con 2 categorías las cuales llamaremos "0" y "1", esto es, los valores de (𝑥𝑖 , 𝑦𝑖 ) son (0,0), (0,1), (1,0), (1,1).
Las muestras cumplen los siguientes supuestos:
• Los pares (𝑥𝑖 , 𝑦𝑖 ) son mutuamente independientes
• La escala de medida es nominal con 2 categorias para 𝑥𝑖 y 𝑦𝑖
Hipótesis
𝐴
𝐻0: El “tratamiento” no induce cambios significativos en la respuesta, es decir, los campos observados en la muestra se deben al azar; de forma que es igualmente probable un cambio de 𝑥𝑖 a 𝑦𝑖 que un cambio de 𝑦𝑖 a 𝑥𝑖 . Matemáticamente se puede escribir como:
𝑃(𝑥𝑖 = 0, 𝑦𝑖 = 1) = 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 = 𝑝2
𝐻1: El “tratamiento” induce cambios
𝑃(𝑥𝑖 = 0, 𝑦𝑖 = 1) ≠ 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 ≠ 𝑝2
𝐵
𝐻0: La característica de interés bajo la condición 1 es mayor que bajo la condición 2
(𝑥𝑖 = 0, 𝑦𝑖 = 1) ≤ 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 ≤ 𝑝2
𝐻1: La característica de interés bajo la condición 1 no es mayor que bajo la condición 2
𝑃(𝑥𝑖 = 0, 𝑦𝑖 = 1) > 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 > 𝑝2
𝐶
𝐻0: La característica de interés bajo la condición 1 es menor que bajo la condición 2
𝑃(𝑥𝑖 = 0, 𝑦𝑖 = 1) ≥ 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 ≥ 𝑝2
𝐻1: La característica de interés bajo la condición 1 no es menor que bajo la condición 2
𝑃(𝑥𝑖 = 0, 𝑦𝑖 = 1) < 𝑃(𝑥𝑖 = 1, 𝑦𝑖 = 0) ∀ 𝑖 / 𝑝1 < 𝑝2
Regla de decisión
A. Rechaza 𝐻0 al nivel de significancia 𝛼 si 𝑇 ≥ 𝜒1,𝛼 2 .Donde 𝜒1,𝛼 2 es cuantil de una distribución 𝜒 2 con un grado de libertad y probabilidad 𝛼
B. Rechaza 𝐻0 al nivel de significancia 𝛼 si 𝑇 ≥ 𝑍𝛼. Donde es el cuantil de una distribución normal con probabilidad 𝛼
C. Rechaza 𝐻0 al nivel de significancia 𝛼 si 𝑇 ≤ −𝑍𝛼
La prueba de signos es actualmente igual a la binomial con 𝑝0 = 1⁄2 = 1 − 𝑝0. Es una prueba con mucha versatilidad porque ayuda a probar si cualesquiera dos poblaciones tienen la misma mediana y también permite indicar la existencia de tendencias.
Datos
Los datos consisten de observaciones bivariadas aleatorias (𝑥1, 𝑦1 ), (𝑥2, 𝑦2 ), … , (𝑥𝑛, 𝑦𝑛 ).
Las muestras cumplen los siguientes supuestos:
• Variables aleatorias bivariadas mutuamente independientes
• La escala de medida es al menos ordinal dentro de cada par
Hipótesis
A.
La mediana de 𝑥𝑖 = La mediana de 𝑦𝑖 ∀𝑖
𝐻0: 𝑃(𝑥𝑖 < 𝑦𝑖 ) = 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
La mediana de 𝑥𝑖 ≠ La mediana de 𝑦𝑖 ∀𝑖
𝐻1: 𝑃(𝑥𝑖 < 𝑦𝑖 ) < 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀ 𝑖 ó 𝐻1:𝑃(𝑥𝑖 < 𝑦𝑖 ) > 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
B.
La mediana de 𝑥𝑖 ≥ La mediana de 𝑦𝑖 ∀𝑖
𝐻0: 𝑃(𝑥𝑖 < 𝑦𝑖 ) ≤ 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
La mediana de 𝑥𝑖 < La mediana de 𝑦𝑖 ∀𝑖
𝐻1: 𝑃(𝑥𝑖 < 𝑦𝑖 ) > 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
C.
La mediana de 𝑥𝑖 ≤ La mediana de 𝑦𝑖 ∀𝑖
𝐻0: 𝑃(𝑥𝑖 < 𝑦𝑖 ) ≥ 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
La mediana de 𝑥𝑖 > La mediana de 𝑦𝑖 ∀𝑖
𝐻1: 𝑃(𝑥𝑖 < 𝑦𝑖 ) < 𝑃(𝑥𝑖 > 𝑦𝑖 ) ∀𝑖
Estadístico de prueba
Dentro de cada par se puede hacer la siguiente comparación:
o Un par es clasificado por " + " si 𝑥1 < 𝑦1
o Un par es clasificado por " − " si 𝑥1 > 𝑦1
o Un par es clasificado por "0" si 𝑥1 = 𝑦1
𝑇 = Total de +′𝑠
Se ignoran los "0", es decir, las igualdades en donde 𝑥𝑖 = 𝑦𝑖
𝑛 = total de de +´𝑠 y −´ 𝑠
Regla de decisión
A.
Para 𝑛 ≤ 25 se cumple que
𝑡 = 1/2 (𝑛 +)
Rechazamos 𝐻0 al nivel de significancia 𝛼 si:
𝑇 ≥ 𝑛 − 𝑡
𝑡 Es el cuantil de una distribución 𝐵𝑖𝑛(𝑛, 𝑝0) al tamaño 𝛼.
B.
Valores grandes de 𝑇 indican que los " + " son más probables que los " − ". Por lo tanto, la región crítica corresponde a los valores de 𝑇 más grandes o iguales 𝑛 − 𝑡
C.
Valores muy pequeños de 𝑇 indican que " − " es más probable que " + ". La región crítica de tamaño 𝛼 corresponde a los valores de 𝑇 ≤ 𝑡.
Esta prueba se utiliza para comparar las distribuciones de probabilidad que no son normales. Es un equivalente a la prueba 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 y se aplica cuando el tipo de medición no cumpla con los requisitos que la 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 exige. La prueba Wilcoxon no solo toma en cuenta el signo, además considera las magnitudes de diferencias entre los valores asociados, es una prueba más sensible que la de signos.
Supuestos
• Variables aleatorias bivariadas (𝑥1, 𝑦1 ), (𝑥2, 𝑦2 ), … , (𝑥𝑛, 𝑦𝑛 ) mutuamente independientes y con distribución simétrica y continua • Las diferencias son mutuamente independientes
• Se utiliza una escala de medida de intervalos. Esto nos ayuda a saber cuál de los dos miembros del par es más grande y podemos ordenar las diferencias sin tener en cuenta su signo (valor absoluto)
• Las diferencias representan observaciones en una variable continua
• La distribución de la población de diferencias es simétrica alrededor de la mediana θ
Hipótesis
A. 𝐻0: 𝜃 = 0 vs 𝐻0: 𝜃 ≠ 0
B. 𝐻0: 𝜃 ≤ 0 vs 𝐻0: 𝜃 > 0
C. 𝐻0: 𝜃 ≥ 0 vs 𝐻0: 𝜃 < 0
Estadístico de prueba
Denotamos 𝐷 el estadístico de prueba definido como:
Donde: 𝑅𝑖 =Suma de los rangos asignados a las parejas (𝑥𝑖,𝑦𝑖) con el signo menos frecuente
Regla de decisión
A.
Buscamos el cuantil 𝑡𝛼en las tabla de Wilcoxon y rechazamos 𝐻0 al nivel de significancia 𝛼 si:
𝐷 ≥ 𝑡𝛼 ó 𝐷 ≤ −𝑡𝛼
B. Buscamos el cuantil 𝑡𝛼 en las tabla de Wilcoxon y rechazamos 𝐻0 si:
𝐷 ≥ 𝑡𝛼
C. Buscamos el cuantil 𝑡𝛼 y rechazamos 𝐻0 si:
𝐷 ≤ −𝑡𝛼
Aproximación a la Normal
Cuando 𝑛 > 25 se puede utilizar la aproximación normal
Se tiene que:
Bajo 𝐻0 y utilizando el Teorema Central del Límite:
Regla de decisión
A. Rechazamos 𝐻0 si |𝐷| ≥ 𝑍𝛼/2
B. Rechazamos 𝐻0 si 𝐷 ≥ 𝑍𝛼
C. Rechazamos 𝐻0 𝐷 ≤ 𝑍𝛼
Suponga que se tienen 𝑟 poblaciones y que se extraen muestras aleatorias de cada una de ellas. El tamaño de cada muestra lo denotamos por 𝑛𝑖 (𝑖 = 1,2, … , 𝑟). Cada observación de las 𝑟 muestras puede ser clasificada en una de 𝑐 diferentes categorías. Se denotará por 𝑂𝑖𝑗 el número de observaciones de la i-ésima categoría en la j-ésima muestra. Denotamos además por 𝑐𝑖 que es el total de observaciones pertenecientes a todas las muestras que quedan contenidas en la i-ésima categoría.
La información se dispone en forma tabular de la siguiente manera en la siguiente tabla de contingencia
𝑟 × 𝑐
En la tabla se puede verificar lo siguiente:
Se consideran los siguientes supuestos básicos en el planteamiento de hipótesis:
• Las 𝑟 muestras son aleatorias
• Los resultados de las diferentes muestras son mutuamente independientes
• Cada observación puede ser categorizada en una y solo una de las 𝑐 diferentes categorías
Hipótesis
Sea 𝑝𝑖𝑗 la probabilidad de que un elemento de la j-ésima población seleccionado al azar, quede clasificado en la i-ésima categoría
𝐻0: La probabilidad de pertenecer a cualquiera de las 𝑐 clases es la misma para cualquier elemento de la j-ésima muestra
𝑝1𝑗 = 𝑝2𝑗 = ⋯ = 𝑝𝑟𝑗 ∀ 𝑗
𝐻1: La probabilidad de pertenecer a cualquiera de las 𝑐 clases es diferente para al menos una clase
𝑝𝑖𝑗 ≠ 𝑝𝑘𝑗 para al menos una pareja 𝑗 ≠ 𝑘
Estadístico de prueba
Donde:
El término 𝑂𝑖𝑗 representa los valores observados en la celda (𝑖,𝑗), y el término 𝐸𝑖𝑗 representa el número esperado de observaciones en la celda (𝑖,𝑗), cuando 𝐻0 es cierta.
Regla de decisión
Rechazamos 𝐻0 al nivel de significancia 𝛼 si 𝑇 excede el cuantil de una 𝜒 2 con probabilidad 1 − 𝛼 y (𝑟 − 1)(𝑐 − 1) grados de libertad, matemáticamente lo podemos expresar como:
Suponga que se dispone de una muestra aleatoria de tamaño 𝑛 y que las observaciones de la muestra pueden clasificarse de acuerdo a dos criterios. Al usar el primer criterio cada observación puede asociarse con uno de los 𝑟 filas y al usar el segundo criterio la observación puede asociarse con una de las 𝑐 columna.
Los supuestos para este caso son los siguientes:
• Cada observación tiene la misma probabilidad de ser clasificada en el i-ésimo renglón y en la j-ésima columna, independientemente de cualquier otra observación
• Las observaciones pueden ser clasificadas en una de las 𝑐 diferentes categorías de acuerdo al segundo criterio
Hipótesis
𝐻0: El evento “la observación pertenece al i-ésimo renglón” es independiente del evento “la misma observación pertenece a la j-ésima columna” para toda 𝑖 y 𝑗
La proposición anterior puede traducirse en términos probabilísticos de la siguiente forma Sea 𝑝𝑖 la probabilidad de pertenecer al i-ésimo renglón y 𝑝𝑗 la probabilidad de pertenecer a la j-ésima columna
𝐻0: 𝑝𝑖𝑗 = 𝑝𝑖 ∗ 𝑝𝑗
𝐻1: 𝑝𝑖𝑗 ≠ 𝑝𝑖 ∗ 𝑝𝑗
Estadístico de prueba
Donde:
Regla de decisión
Rechazamos 𝐻0 al nivel de significancia 𝛼 si 𝑇 excede el cuantil de una 𝜒 2 con probabilidad 1 − 𝛼 y (𝑟 − 1)(𝑐 − 1) grados de libertad, matemáticamente lo podemos expresar como:
Es la extensión de la prueba de la mediana para más de 2 poblaciones y tiene como propósito verificar si de 𝑘 muestras independientes con igual o diferente tamaño de muestra proceden de la misma población o de poblaciones con medianas iguales.
Se tienen las muestras {𝑥1, 𝑥2, … 𝑥𝑛1 },{𝑦1, 𝑦2, … 𝑦𝑛2 },…, {𝑧1, 𝑧2, … 𝑧𝑛𝑘 } de tal manera que:
Supuestos:
• Las dos muestras se han tomado de forma independiente, solamente entre los grupos considerados, sino además dentro de cada grupo
• Las mediciones consideradas alcanzan al menos el nivel ordinal
Hipótesis
𝐻0: Las 𝑘 muestras tienen la misma mediana
𝐻1: Al menos dos muestras son diferentes
Estadístico de prueba
Regla de decisión
Rechazo 𝐻0 al nivel de significancia 𝛼 si
La prueba Kruskall-Wallis es útil para probar los resultados de 𝑘 muestras que vienen de poblaciones diferentes.
Los datos consisten diferentes 𝑘 muestras aleatorias que pueden tener distintos tamaños. De tal manera que
Supuestos:
• Las dos muestras se han tomado de forma independiente, solamente entre los grupos considerados, sino además dentro de cada grupo
• La escala de medida es al menos ordinal (un número moderado de casos repetidos se considera tolerable)
Hipótesis
𝐻0:Las 𝑘 muestras vienen de la misma población o de poblaciones cuyo promedio de rangos son idénticos
𝐻1: Al menos dos muestras son diferentes
Estadístico de prueba
Ordenamos las 𝑛 observaciones y les asignamos el rango correspondiente de menor a mayor, después se calcula 𝑅𝑖 = La suma de los rangos asignados a la muestra 𝑖 ∀𝑖
La estadística de prueba se calcula así
Regla de decisión
Rechazo 𝐻0 al nivel de significancia 𝛼 si
Los datos consisten de 𝑁 observaciones independientes de una v.a. 𝑋 que se agrupan en 𝐶
clases o grupos. La escala de medida de las categorías es al menos de tipo nominal. Donde
Hipótesis
Sea 𝐹(𝑥) la 𝑓. 𝑑. 𝑝 de 𝑥, y sesa 𝐹 ∗ (𝑥) alugna función específica
𝐻0 ∶ 𝐹(𝑥) = 𝐹 ∗ (𝑥) ∀ 𝑥 vs 𝐻1 ∶ 𝐹(𝑥) ≠ 𝐹 ∗ (𝑥) al menos un valor de 𝑥
Estadístico de prueba
Definimos el número esperado de observaciones en la clase 𝑗 cuando 𝐻0 es cierta, 𝐸𝑗 , como:
El estadístico de prueba está dado por:
Regla de decisión
Valores muy altos de 𝑇 reflejan una incompatiblidad entre los observados y las frecuencias relativas esperadas. La distribución de 𝑇 es difícil de calcular. Para muestras largas se tiene que:
Rechazamos 𝐻0 si
Datos
Los datos consisten de una muestra aleatoria 𝑥1, 𝑥2 … , 𝑥𝑛 de tamaño 𝑛 asociada a una distribución desconocida que denotamos por 𝐹(𝑥).
Supuestos
• La muestra es aleatoria
• La distribución hipotética 𝐹(𝑥) es continua
Sea 𝐹∗(𝑥) una función de distribución completamente especificada que toma valores
Hipótesis
A.
𝐻0 ∶ 𝐹(𝑥) = 𝐹 ∗ (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹(𝑥) ≠ 𝐹 ∗ (𝑥) al menos un valor de 𝑥
B.
𝐻0 ∶ 𝐹(𝑥) ≥ 𝐹 ∗ (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹(𝑥) < 𝐹 ∗ (𝑥) al menos un valor de 𝑥
C.
𝐻0 ∶ 𝐹(𝑥) ≤ 𝐹 ∗ (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹(𝑥) > 𝐹 ∗ (𝑥) al menos un valor de 𝑥
Estadístico de prueba
La función de distribución empírica de una muestra se calcula como:
Regla de decisión:
Rechaza 𝐻0 al nivel 𝛼 si:
Donde:
𝑊1−𝛼 Es el cuantil de una Kolmogorov-Smirnov
El test quiere probar si dos muestras independientes provienen de la misma población, la diferencia con los test vistos anteriormente como la mediana, la prueba de signos, la U MannWhitney es que solo toman en cuenta información como la media o la mediana y desperdician otro tipo de información importante como es la variabilidad entre las observaciones.
Datos
Se tienen dos
𝑥1, 𝑥2, … , 𝑥𝑛1
𝑦1, 𝑦2, … , 𝑦𝑛2
De tamaño 𝑛1 la primera de ellas y 𝑛2 la segunda.
Supuestos:
• Las muestras son aleatorias
• Las muestras son independientes
• La escala de medida es al menos ordinal
• Se supone que las variables provienen de una función de probabilidad continua
Llamamos:
𝐹1 (𝑥) 𝑓. 𝑑. 𝑝. continua de la primera muestra
𝐹2 (𝑥) 𝑓. 𝑑. 𝑝. continua de la segunda muestra
Hipótesis
A.
𝐻0 ∶ 𝐹1 (𝑥) = 𝐹2 (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹1 (𝑥) ≠ 𝐹2 (𝑥) al menos un valor de 𝑥
B.
𝐻0 ∶ 𝐹1 (𝑥) ≤ 𝐹2 (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹1 (𝑥) > 𝐹2 (𝑥) al menos un valor de 𝑥
C.
𝐻0 ∶ 𝐹1 (𝑥) ≥ 𝐹2 (𝑥) ∀ 𝑥, de −∞ 𝑎 ∞
𝐻1 ∶ 𝐹1 (𝑥) < 𝐹2 (𝑥) al menos un valor de 𝑥
Estadístico de prueba
Sean:
𝑆1 (𝑥) la función de distribución empírica de la muestra 𝑥1, 𝑥2, … , 𝑥𝑛1
𝑆2 (𝑥) la función de distribución empírica de la muestra 𝑦1, 𝑦2, … , 𝑦𝑛2
El estadístico está definido para las diferentes hipótesis como:
A. Sea el estadístico 𝐷1 la mayor distancia vertical entre 𝑆1 (𝑥) y 𝑆2 (𝑥) 𝐷1 = sup 𝑥 |𝑆1 (𝑥) − 𝑆2 (𝑥)|
B. Sea el estadístico 𝐷 + igual a la mayor distancia vertical de 𝑆1 (𝑥) por encima de 𝑆2 (𝑥) 𝐷1 + = sup 𝑥 |𝑆1 (𝑥) − 𝑆2 (𝑥)|
C. Sea el estadístico 𝐷 − definida como la mayor distancia vertical de 𝑆1 (𝑥) por encima de 𝑆2 (𝑥) 𝐷1 − = sup 𝑥 |𝑆1 (𝑥) − 𝑆2 (𝑥)|
Regla de decisión:
Rechaza 𝐻0 al nivel 𝛼 si:
Donde:
𝑊1−𝛼 Es el cuantil de una Kolmogorov-Smirnov
La prueba de Rao-Scott es una corrección a la prueba Ji-Cuadrada que se realiza cuando se toma en cuenta el diseño muestral.
En particular para la prueba Kolmogorov-Smirnov existen las variantes como la prueba Anderson Darling que da mayor peso a las colas de la distribución.
La prueba de Cramér-Von Mises en donde además de tomar la mayor distancia vertical entre 𝑆1 (𝑥) y 𝑆2 (𝑥) realiza una corrección dependiendo el tamaño de las muestras.
Bibliografia.
UnADM(2022). Unidad 1. Estadística no paramétrica y pruebas de Bondad de Ajuste. DCEIT.