Please enable JavaScript.
Coggle requires JavaScript to display documents.
El modelo lineal múltiple - Coggle Diagram
El modelo lineal múltiple
Nuestro objetivo es aproximar los k parámetros que representan la relación existente entre las variables a partir de información muestral sobre las mismas. En concreto,asumimos que disponemos de una muestra de tamaño n, que nos conduce a un sistema de ecuaciones cuya expresión matricial es:
Estimación
Se lleva a cabo asumiendo ciertas hipótesis de trabajo
Forma funcional del modelo, respecto a la que se asume la linealidad.
Perturbación aleatoria
La perturbación u es una v.a. no observable de esperanza nula: E(u) = 0
La matriz de varianzas-covarianzas de la perturbación viene dada por la expresión:
Distribución normal multivariante: hace posible la aplicación del TCL.
Supuestos sobre los regresores
La matriz de regresores X es fija, es decir, adopta los mismos valores para distintas muestras. Es admisible para las ciencias experimentales, pero no para Ciencias Sociales.
La matriz de regresores tiene rango k, esto es, p(X) = k. Dado que la matriz X tiene k columnas (tantas como parámetros) y n filas (observaciones muestrales).
La información estadística disponible sobre el conjunto de variables observables debe ser suficientemente amplia y las columnas de la matriz X deben ser linealmente independientes.
Hipótesis referida a los parámetros
B es un vector fijo.
Estimadores mínimo cuadráticos y máximo verosímiles
La obtención de los estimadores máximo verosímiles (MV) se lleva a cabo partiendo de la función de verosimilitud que, bajo el supuesto de normalidad conduce a las expresiones:
Los estimadores mínimo cuadráticos ordinarios (MCO) arroja el vector de estimadores mínimo cuadráticos como:
Propiedades y características de los estimadores
Son insesgados, consistentes y de mínima varianza dentro de la clase de los estimadores lineales insesgados.
Contrastes y análisis de la bondad del modelo
La presencia de múltiples regresores amplía considerablemente las posibilidades inferenciales
Un elemento clave en estos contrastes es el vector aleatorio de perturbaciones u. A partir de dicho vector y de la matriz idempotente M es posible obtener una forma cuadrática.
Partiendo de los errores estimados se obtiene por tanto la expresión aleatoria:
Contrastes individuales
Es análogo al visto para la regresión simple y se basa en una discrepancia con distribución t de Student.
Si esta probabilidad adopta valores pequeños conduce al rechazo de la hipótesis nula, respaldando por tanto la introducción de la variable Xj como explicativa en nuestro
modelo. En otras situaciones puede resultar interesante contrastar valores concretos del parámetro, para lo cual se sigue un procedimiento análogo al anterior sustituyendo el valor hipotético de B en la expresión de la discrepancia.
Contrastes globales de significación
La hipótesis nula equivale a afirmar que ninguno de los regresores tiene capacidad explicativa sobre Y , mientras el complementario se recoge en la hipótesis alternativa.
Los contrastes globales de significación se basan en el análisis de la varianza.
Bondad del modelo
Puede ser analizada mendiante los
Coeficientes de determinación
Es una función no decreciente del número de variables explicativas del modelo, como consecuencia, la fiabilidad aparente de un modelo aumenta a medida que introducimos nuevas variables y de hecho, en el caso extremo n =k el coeficiente de determinación alcanza un valor unitario siempre que no exista relación lineal entre los regresores.
Para evitar que el coeficiente de determinación se eleve artificialmente, resulta conveniente introducir el coeficiente de determinación corregido o ajustado, que penaliza la inclusión de nuevas variables explicativas en el modelo.
Logaritmo de verosimilitud, Criterios de información, Criterio de Akaike, Criterio de Schwarz, Criterio de Hannan-Quinn
Contrastes relativos a subconjuntos de parámetros
En este tipo de contrastes la hipótesis puede ser expresada en forma genérica como H0 : R = B*, donde R es una matriz de r filas (tantas como restricciones impuestas en la hipótesis) y k columnas (tantas como parámetros para que sea multiplicable por B).
Predicción
Una vez que disponemos de uno o varios modelos que superaron la etapa de validación y que por lo tanto parecen ser adecuados debemos pasar a la etapa de predicción de las variables dependientes.
Existen diversas formas de clasificar las predicciones, según el uso que se haga de la información disponible (condicionada o no condicionada), según el período al que vayan referidas (ex-post y ex-ante) o bien según los valores que se encuentran registrados en cada etapa (estática y dinámica).