Please enable JavaScript.
Coggle requires JavaScript to display documents.
MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN :pencil2: - Coggle Diagram
MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN
:pencil2:
REGRESIÓN Y CORRELACIÓN SIMPLE
según los valores de las variables se clasifican en:
REGRESIÓN DE TIPO I: se asigna a cada conjunto de valores de las variables explicativas, en el caso múltiple, la media de la variable explicada condicionada a tal valor(es) de la(s) variable(s) explicativa(s).
REGRESIÓN DE TIPO II:En consecuencia, proporciona estimaciones de Y para cualquier valor de X, esté contenido en la distribución o no.
RAZÓN DE CORRELACIÓN
Si no se conociese con qué valor de X va emparejado cada valor de Y la mejor estimación de Y sería la media de la variable Y.
Ahora bien, conociendo el valor de X que va emparejado con cada valor de Y, la mejor estimación de esta última es la media de las observaciones de Y emparejadas con el valor en cuestión de X.
Por consiguiente, la reducción proporcional en el error cometido es una buena medida de lo que ayuda la variable X en la explicación de la variabilidad de la variable Y.
VARIANZA DEBIDA A LA REGRESIÓN Y VARIANZA RESIDUAL
se puede descomponer en la suma de dos componentes: la varianza de los errores de estimación y un porcentaje de la varianza de Y que se debe a la inclusión de la variable X en el análisis, que se denominará varianza de Y «explicada» por la regresión de tipo I de Y sobre X, o por la inclusión de la variable X en la regresión
REGRESIÓN LINEAL
linealidad en las variables
f(x) se dice que es lineal en X si la variable X aparece con potencia unitaria (por tanto, se excluyen términos como x2, x3, 1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra variable.
Linealidad de los parámetros
aparecen con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro.
REGRESIÓN Y CORRELACIÓN NO LINEAL
la función y = f(x) no tiene carácter lineal, por no serlo en los parámetros o/y en las variables.
REGRESIÓN POLINÓMICA
:
REGRESIÓN MÚLTIPLE
Determinar la relación entre las variables independientes y dependiente, o variables de predicción y de criterio.
Y = α + β1 X1 + β3X3 + ∊
Coeficiente de regresión parcial
esta cantidad resulta de un análisis de regresión múltiple e indica el cambio promedio en la variable de criterio por cambio unitario en una variable predictiva.
SUPUESTO DE MULTICOLINEIDAD
Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, sino que están correlacionadas.
COEFICIENTES DE REGRESIÓN PARCIAL
:pen:
En el supuesto de que se trate de un problema de investigación, el modelo de regresión correspondería a la ecuación:
COEFICIENTE DE DETERMINACIÓN MULTIPLE:
En el análisis de determinación múltiple, la proporción de variación en la variable de criterio que se explica con la covariación de las variables predictivas.
COEFICIENTE DE CORRELACIÓN MÚLTIPLE:
la raíz cuadrada del coeficiente de determinación múltiple.
VARIABLE BINARIA
:
Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativos.