Please enable JavaScript.
Coggle requires JavaScript to display documents.
Mapa Conceptual Pdf's econometria y modelos Rodolfo Valenzuela …
Mapa Conceptual
Pdf's econometria y modelos
Rodolfo Valenzuela
Gregori Hidalgo
Daniela Perez
m. lineal 1
Definición
Esquema de relación entre Y (dependiente) y X (independientes).
Incluye perturbación aleatoria.
Modelos:
MLS: yi = a + b xi + ei
MLG: yi = b0 + b1 x1i + b2 x2i + ... + bk xki + ei
Matricial: y = Xb + e
Utilidad
Verificar relación lineal.
Estimar coeficientes.
Predecir valores futuros de Y.
Hipótesis básicas
Errores ~ N(0, σ²), homocedásticos.
No autocorrelación.
X no aleatorias y sin multicolinealidad.
Estimación
Método de Mínimos Cuadrados.
Estimadores insesgados.
Varianza residual = calidad del ajuste.
Inferencia
Intervalos de confianza.
Contraste t para parámetros individuales.
Contraste F (ANOVA) para significancia global.
Predicción
Puntual: usar coeficientes estimados.
Por intervalos: incluye error estándar.
m. lineal 2 simple y multi
Regresión Lineal Múltiple (RLM)
Extiende la RLS con varias X.
Modelo: Yi = β0 + β1 X1i + β2 X2i + ... + βk Xki + ui
Permite controlar varios factores.
Supuestos clásicos (MCO)
Linealidad en parámetros.
E(ui) = 0.
Homocedasticidad.
No autocorrelación.
No multicolinealidad perfecta.
Normalidad de errores.
Regresión Lineal Simple (RLS)
Relaciona Y con una sola X.
Modelo: Yi = β0 + β1 Xi + ui
Objetivos: explicar, medir impacto, predecir.
Estimación
Método de Mínimos Cuadrados Ordinarios (MCO).
Estimadores insesgados, consistentes y eficientes.
Bondad de ajuste
R²: proporción de variabilidad explicada.
R² ajustado: corrige por número de regresores.
Inferencia
Prueba t: significancia individual.
Prueba F: significancia conjunta.
Intervalos de confianza.
Aplicaciones en R
Estimación: lm(y ~ x1 + x2 + ..., data).
Validación: análisis de residuos.
Predicción: predict(modelo, newdata).
Conceptos clave
Estimación
Mínimos Cuadrados Ordinarios (MCO): Método que minimiza la suma de los errores al cuadrado (Σ(yi – ŷi)²).
Varianza residual: Medida de la calidad del ajuste del modelo; varianza de los errores estimados.
Estimadores insesgados: Coeficientes que en promedio coinciden con los parámetros reales.
Modelo Lineal
Modelo lineal: Relación entre variable dependiente (Y) y variables independientes (X), más un error aleatorio.
Modelo lineal simple (MLS): Yi = a + b Xi + ei → una sola variable explicativa.
Modelo lineal general (MLG): Yi = b0 + b1X1i + ... + bkXki + ei → varias variables explicativas.
Forma matricial: y = Xb + e.
Parámetros
α (alfa / intercepto): Valor de Y cuando X = 0.
β (beta / pendiente): Cambio esperado en Y por cada unidad adicional de X.
Coeficiente de regresión: Valor de β, mide intensidad y dirección de la relación.
Supuestos clásicos:
Linealidad: Relación lineal entre variables.
Independencia: Los errores son independientes entre sí.
Homoscedasticidad: Varianza constante de los errores.
Normalidad: Los errores siguen una distribución normal con media cero.
No multicolinealidad: En RLM, los regresores no deben estar perfectamente correlacionados.
Inferencia estadística
Prueba t: Evalúa si un coeficiente es significativamente distinto de cero.
Prueba F (ANOVA): Evalúa la significancia conjunta de los regresores.
Intervalo de confianza: Rango de valores posibles para un parámetro o una predicción con cierto nivel de confianza.
Contraste de hipótesis: Método para validar o rechazar supuestos sobre parámetros del modelo.
Predicción
Predicción puntual: Estimación de ŷ para un valor específico de X.
Intervalo de predicción: Rango dentro del cual se espera que caiga un nuevo valor de Y.
Bandas de confianza: Intervalos que rodean a la recta de regresión para representar incertidumbre.
Diagnóstico del modelo
Residuos: Diferencias entre valores observados (yi) y estimados (ŷi).
Durbin-Watson: Prueba para autocorrelación de residuos.
Heterocedasticidad: Varianza de errores no constante (incumple homocedasticidad).
Correlación y determinación
Coeficiente de correlación (r): Grado de relación lineal entre X y Y, valores entre [-1,1].
Coeficiente de determinación (R² o r²): Proporción de la variabilidad de Y explicada por el modelo.
m lineal 3
Coeficiente de Regresión
Indica cómo cambia Y al variar X:
b = 0 → Y constante.
b > 0 → relación directa.
b < 0 → relación inversa.
Definición
Explica la relación entre una variable dependiente Y y una sola variable explicativa X.
Modelo: Y = α + βX + ε
α: ordenada en el origen (valor de Y cuando X=0).
β: pendiente (variación de Y por cada unidad de X).
ε: error aleatorio.
Método de Mínimos Cuadrados
Ajusta una recta a los datos minimizando Σ(yi – ŷi)².
Estimadores:
a = ȳ – b x̄
b = Sxy / Sx²
Contraste de Regresión
Hipótesis:
H0: β = 0 (no hay relación lineal).
H1: β ≠ 0 (sí hay relación lineal).
Se usa ANOVA con estadístico F.
Coeficiente de Correlación (r)
Mide la dependencia lineal entre X e Y.
Valores en [-1,1].
r² = coeficiente de determinación → proporción de variabilidad de Y explicada por X.
Inferencia sobre los Parámetros
Contrastes de hipótesis para α y β mediante pruebas t.
Intervalos de confianza para los parámetros.
Predicción
Estimación puntual: ŷ = a + bX.
Intervalos de confianza:
Para la media de Y cuando X=x.
Para una nueva observación de Y cuando X=x.
Bandas de confianza alrededor de la recta.
Supuestos del Modelo
Independencia de residuos (Durbin-Watson entre 1.5 y 2.5).
Homocedasticidad: varianza constante de los residuos.
Normalidad de los residuos (Kolmogorov-Smirnov, ShapiroWilk)
Incumplimiento de Supuestos
Problemas: autocorrelación, heterocedasticidad, falta de linealidad.
Soluciones:
Transformaciones de datos (ej. Box-Cox).
Uso de otros modelos de regresión más adecuados.