MODELOS DE REGRESIÓN Y PRUEBAS NO PARAMÉTRICAS
MODELOS DE REGRESIÓN LINEAL MÚLTIPLE
ANÁLISIS DE VARIANZA (ANOVA)
MODELOS DE REGRESIÓN SIMPLE
PRUEBAS NO PARAMÉTRICAS
Un modelo de regresión es un modelo matemático que busca determinar la relación entre una variable dependiente (Y), con respecto a otras variables, llamadas explicativas o independientes (X).
Estimación Por Mínimos Cuadrados
Matriz De Varianzas – Covarianzas Y De Correlaciones
Modelo Matricial
Inferencia, Predicción Y Diagnosis
Aplicación Con Software Estadístico
Anova De Un Factor
Pruebas De Homogeneidad Y Post Hoc
Prueba De Wilcoxson
Kruskal Wallis
Rangos De Spearman
Pruebas Chi Cuadrado
Prueba de Mann Withney.
Coeficiente de correlación
El coeficiente
de correlación describe la intensidad de la relación entre dos conjuntos de variables de nivel de intervalo o variables de nivel de relación.
n es el numero de pares de observaciones.
ΣX es la suma de los valores de la variable X.
ΣY es la suma de los valores de la variable Y.
(ΣX*2) es la suma de los cuadrados de los valores de la variable de x
(ΣX)*2 es el cuadrado de la suma de los valores de la variable X
(ΣY*2) es la suma de los cuadrados de los valores de la variable Y.
(ΣY]*2 es el cuadrado de la suma de los valores de la variable Y.
ΣXY suma de los productos de X y Y
Coeficiente de determinación
Es la porción de la variación total en la variable dependiente Y, que se explica por la variación en la variable independiente X.
Prueba de significancia del coeficiente de correlación
La ecuación de Regresión es una ecuación que define la relación lineal entre dos variables
El principio de mínimos cuadrados es una técnica empleada para obtener la ecuación de regresión minimizando la suma de los cuadrados de las distancias verticales entre los valores verdaderos de (y) y los valores pronosticados de y
Y' , es el valor pronosticado de la variable Y para un valor seleccionado de X.
a es la ordenada de la intersección con el eje Y, es decir, el valor estimado de Y cuando X= O
b es la pendiente de la recta
X es cualquier valor seleccionado de la variable independiente
LINEAL
PENDIENTE DE LA LÍNEA
DE REGRESIÓN
PUNTO DONDE SE INTERCEPTA CON EL EJE Y
X es un valor de la variable independiente.
Y es un valor de la variable dependiente.
n es el número de elementos en la muestra.
Errór estándar de estimación
Medida de la dispersión de los valores observados, con respecto a la línea de regresión.
Intervalos de confianza y de predicción
Y' es el valor pronosticado para cualquier valor X seleccionado.
X es cualquier valor seleccionado de X.
x̄ es la media de las X, evaluada mediante ΣX\n.
n es el número de observaciones.
S * y. x es el error estándar de estimación
t es el valor t tomado del apéndice F para n - 2 grados de libertad.
lNTERVALO DE PREDICCIÓN
PARA Y, DADO UN VAlOR DE X·
Determina si dos muestras independientes provienen de poblaciones iguales
Para calcular su estadístico primero se unen todas las muestras, luego los valores se ordenan de mayor a menor y los valores ordenados se remplazan por rangos
Mide la relación entre dos variable de intervalo o razón de tal forma que permite estudiar su relación entre datos y rangos
Prueba de hipótesis de la correlación de rangos
Se utiliza para comparar las varianzas entre las medias (o el promedio) de diferentes grupos
SUMA DE CUADRADOS TOTAL
SUMA DE CUADRADOS DEBIDO AL TRATAMIENTO
SUMA DE CUADRADOS DEL ERROR
Identifica subconjuntos homogéneos de medias que no se diferencian entre sí.
PRUEBA TUKEY
Se usa en experimentos que
implican un número elevado de comparaciones.
• Se basa en la construcción de intervalos de confianza de las diferencias por pares. Si
estos intervalos incluyen al 0, entonces no se rechaza la hipótesis nula
Tiene como finalidad conocer si la distribución variable estudiada difiere en el coeficiente de correlación de las poblaciones
En esta prueba se tienen varias muestras independientes correspondientes a las categorías de una de las variables y se clasifican las observaciones respecto a la otra variable
Es utilizada para determinar si una media poblacional desconocida es diferente de un valor específico
Compara dos medias muestrales que provienen de la misma población
En el caso de la regresión múltiple la ecuación se amplia
y puede tener más variables independientes adicionales.
Cuando se tienen dos variables independientes y solo una independiente, es un plano de regresión ya que se están considerando tres dimensiones.
X1 X2: Dos variables independientes
a: Es la ordenada del punto de intersección con el eje Y.
b1: Variación neta en Y por cada unidad de variación en X1, manteniendo X2 constante.
b2: Variación neta en Y por cada unidad de variación en X2, manteniendo X1 constante.
Al ajustar un modelo de regresión lineal múltiple, en particular cuando el número de variable pasa de dos, el conocimiento de la teoría matricial puede facilitar las manipulaciones matemáticas.
El experimentador tiene x1, x2, ..., xk variables independientes y n observaciones y1, y2, .. yn.
Distribuciones muestrales de los estimadores MCO
Contraste de hipótesis de un único parámetro
Intervalos de confianza
Contrastes bilaterales
Contrastes unilaterales
Excel: MegaStat
SPSS: Fórmulas Estadísticas
Depende de la distribución subyacente de los términos de error.
t N-K;α 2 : valor crítico (cuantil (100- α 2 )% a la izquierda de una t-Student con N-K grados de libertad).
Proporciona un intervalo de valores posibles para el parámetro poblacional, con un nivel de confianza de (100-α)% .