MEDIDAS ESTADISTICAS BIVARIANTES DE REGRESIÓN

Las técnicas estadísticas bivariantes permiten el análisis conjunto de dos características de los individuos de una población con el propósito de detectar posibles relaciones entre ellas

Regresión lineal múltiple

Cuando se emplea mas de una variable independiente para evaluar una variable dependiente

Se deben cumplir una serie de condiciones para poder aplicarla

Variable dependiente(resultado) debe ser ordinal o escalar, es decir, que las categorías de la variable tengan orden interno o jerarquía

Variables independientes (explicaciones) deben ser ordinales o escalares o dummy

Otras condiciones como:

las variables independientes no puede estar altamente correlacionadas entre sí

las relaciones entre las causas y el resultado deben ser lineales

todas variables deben seguir la distribución normal y deben tener varianzas iguales

Para realizar un análisis se tienen las siguientes consideraciones

Linealidad: los valores de la variable dependiente están generados por el
siguiente modelo lineal Y = X * B +U

Homocedasticidad: todas las perturbaciones tienen las misma varianza: image

Independencia: las perturbaciones aleatorias son independientes entre sí

image

Normalidad: la distribución de la perturbación aleatoria tiene distribución
normal:

image

Las variables explicativas Xk se obtienen sin errores de medida

Contraste de regresión

Cuando en la muestra los datos sean muy amplios, el conjunto puede ser infinito; entonces en las muestras van a dar distintos valores de los parámetros

Un caso de especial interés es asignar una medida de probabilidad a la siguiente
afirmación o hipótesis: image

La afirmación contraria sería: image

Multicolinealidad

Si las variables explicativas se pueden expresar como una combinación lineal: image

Se dice que tenemos un problema de multicolinealidad

¿cómo detectar el problema?

Solicitando el determinante de la matriz de varianzas-covarianzas, que estará
cercano a cero.

Calculando el cociente entre el primer y último autovalor de la matriz de
varianzas-covarianzas que será mayor de 50.

Calculando para cada variable el coeficiente de determinación ( 2 R ) de dicha
variable con el resto.

La solución

Eliminar del modelo aquellas variables explicativas que dependen
unas de otras. En general, los métodos de selección de variables solucionan
automáticamente este problema.

Regresión lineal simple

Tipos de modelos de regresión lineal: Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:

En este modelo de regresión busca explicar la relación que existe entre la variable respuesta Y y una única variable explicativa X

Tipos de relación:

No determinista: Conocido el valor de X, el valor de Y no queda
perfectamente establecido. Son del tipo: image donde u es una perturbación desconocida (valiable aleatoria)

Determinista: Conocido el valor de X, el valor de Y queda
perfectamente establecido. Son del tipo: image

Lineal: Cuando la función f (x) es lineal: image

No lineal: Cuando la función f (x) no es lineal. Por ejemplo: image

Ausencia de relación: Cuando f (x) = 0

Medidas de dependencia lineal:

La covarianza:
image

Si hay relación lineal positiva, la covarianza será positiva y grande.

Si hay relación lineal negativa, la covarianza será negativa y grande
en valor absoluto

Si hay no hay relación entre las variables o la relación es
marcadamente no lineal, la covarianza será próxima a cero.

PERO la covarianza depende de las unidades de medida de las variables.

El coeficiente de correlación lineal

Una medida de la dependencia lineal que no depende de las unidades de
medida es el coeficiente de correlación lineal:

image

Hipótesis del modelo de regresión

Linealidad: La relación existente entre X e Y es lineal, image

Homocedasticidad: La varianza de los errores es constante, image

Independencia: Las observaciones son independientes,
image

Normalidad: Los errores siguen una distribución normal, image

Homogeneidad: El valor promedio del error es cero image