MEDIDAS ESTADISTICAS BIVARIANTES DE REGRESIÓN
Las técnicas estadísticas bivariantes permiten el análisis conjunto de dos características de los individuos de una población con el propósito de detectar posibles relaciones entre ellas
Regresión lineal múltiple
Cuando se emplea mas de una variable independiente para evaluar una variable dependiente
Se deben cumplir una serie de condiciones para poder aplicarla
Variable dependiente(resultado) debe ser ordinal o escalar, es decir, que las categorías de la variable tengan orden interno o jerarquía
Variables independientes (explicaciones) deben ser ordinales o escalares o dummy
Otras condiciones como:
las variables independientes no puede estar altamente correlacionadas entre sí
las relaciones entre las causas y el resultado deben ser lineales
todas variables deben seguir la distribución normal y deben tener varianzas iguales
Para realizar un análisis se tienen las siguientes consideraciones
Linealidad: los valores de la variable dependiente están generados por el
siguiente modelo lineal Y = X * B +U
Homocedasticidad: todas las perturbaciones tienen las misma varianza:
Independencia: las perturbaciones aleatorias son independientes entre sí
Normalidad: la distribución de la perturbación aleatoria tiene distribución
normal:
Las variables explicativas Xk se obtienen sin errores de medida
Contraste de regresión
Cuando en la muestra los datos sean muy amplios, el conjunto puede ser infinito; entonces en las muestras van a dar distintos valores de los parámetros
Un caso de especial interés es asignar una medida de probabilidad a la siguiente
afirmación o hipótesis:
La afirmación contraria sería:
Multicolinealidad
Si las variables explicativas se pueden expresar como una combinación lineal:
Se dice que tenemos un problema de multicolinealidad
¿cómo detectar el problema?
Solicitando el determinante de la matriz de varianzas-covarianzas, que estará
cercano a cero.
Calculando el cociente entre el primer y último autovalor de la matriz de
varianzas-covarianzas que será mayor de 50.
Calculando para cada variable el coeficiente de determinación ( 2 R ) de dicha
variable con el resto.
La solución
Eliminar del modelo aquellas variables explicativas que dependen
unas de otras. En general, los métodos de selección de variables solucionan
automáticamente este problema.
Regresión lineal simple
Tipos de modelos de regresión lineal: Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:
En este modelo de regresión busca explicar la relación que existe entre la variable respuesta Y y una única variable explicativa X
Tipos de relación:
No determinista: Conocido el valor de X, el valor de Y no queda
perfectamente establecido. Son del tipo: donde u es una perturbación desconocida (valiable aleatoria)
Determinista: Conocido el valor de X, el valor de Y queda
perfectamente establecido. Son del tipo:
Lineal: Cuando la función f (x) es lineal:
No lineal: Cuando la función f (x) no es lineal. Por ejemplo:
Ausencia de relación: Cuando f (x) = 0
Medidas de dependencia lineal:
La covarianza:
Si hay relación lineal positiva, la covarianza será positiva y grande.
Si hay relación lineal negativa, la covarianza será negativa y grande
en valor absoluto
Si hay no hay relación entre las variables o la relación es
marcadamente no lineal, la covarianza será próxima a cero.
PERO la covarianza depende de las unidades de medida de las variables.
El coeficiente de correlación lineal
Una medida de la dependencia lineal que no depende de las unidades de
medida es el coeficiente de correlación lineal:
Hipótesis del modelo de regresión
Linealidad: La relación existente entre X e Y es lineal,
Homocedasticidad: La varianza de los errores es constante,
Independencia: Las observaciones son independientes,
Normalidad: Los errores siguen una distribución normal,
Homogeneidad: El valor promedio del error es cero