Regresión lineal

Variables

Variable dependiente (Y )

Variable(s) independiente(s) (X)

¿Qué preguntas resuelve?

¿Qué es?

Es un modelo matemático que permite obtener una fórmula capaz de relacionar la variable Y con la variable X (basada sólo en relaciones lineales) ,también se da un termino aleatorio : Y = β0 + β1X + ε.

Es aquella variable que deseamos estudiar en relación
con otras.

Es aquella que creemos que puede afectar en alguna medida a la variable dependiente.


Habitualmente se considera que es una constante que el investigador puede manejar a su antojo en distintos valores.

¿Es significativa la influencia que tiene la variable independiente sobre la variable dependiente?



¿Podemos aprovechar esa relación para predecir valores de la variable dependiente a partir de valores observados de la variable independiente?

Yˆ = β0 + β1X.

Error aleatorio (ε )

Cantidad (aleatoria) que provoca que la relación entre
la variable dependiente y la variable independiente no sea perfecta,


ε será siempre desconocido hasta que se observen los valores de X e Y.

La ordenada al origen (β0)

Características

Si la relación es significativa

  • ¿cómo es?

¿Podemos inferir características sobre esa relación y con el fenómeno que subyace a ella?

Supuestos

Relación lineal

Aditividad

Homocedasticidad

Es el punto donde la recta intercepta o corta al eje y.

La pendiente (β1)

Es el incremento de la
variable dependiente por cada incremento en una unidad de la variable independiente

Normalidad

Debe de haber una correlación entre las variables independientes y la dependiente.

Es cuando no hay relación entre las variables independientes.

Multicolinealidad

Es cuando dos variables independientes están relacionadas.

Es cuando la varianza de los errores de medición de nuestro análisis es igual para todas las variables independientes.

Significa que nuestras variables tanto independientes como dependiente, tienen un puntaje distribuido de forma normal.