Please enable JavaScript.
Coggle requires JavaScript to display documents.
MEDIDAS ESTADÍSTICAS BIVARIANTES - Coggle Diagram
MEDIDAS ESTADÍSTICAS BIVARIANTES
REGRESIÓN
DEFINICIÓN:
La regresión trata de explicar el comportamiento de una variable, denominada explicada dependiente o endógena, en función de otra variable denominadas explicativas dependientes o exógenas.
Regresión lineal
Regresión Lineal Simple
Función lineal es aquella que satisface las propiedades: propiedad activa si existe Y, la cual es una función polinómica cuya representación es en el plano cartesiano es una linea recta.
Coeficiente de Determinación Lineal
Una vez elegida la función rectilínea, para representar la relación de dependencia de Y sobre X, y estimados sus parámetros a y b, se procede al computo del coeficiente de determinación lineal, con el objeto de medir grado de dependencia a y sobre x bajo la función de regresión lineal estimada.
Modelo del análisis de
regresión
Estadístico
: permite la incorporación de un COMPONENTE ALEATORIO en la relación. En consecuencia, las predicciones obtenidas a través de modelos estadísticos tendrán asociado un error de predicción.
Estandarizada
: La pendiente β1 nos indica si hay relación entre las dos variables, su signo nos indica si la relación es positiva o negativa. La razón es que su valor numérico depende de las unidades de medida de las dos variables. Un cambio de unidades en una de ellas puede producir un cambio drástico en el valor de la pendiente.
Determinista:
supone que bajo condiciones ideales, el comportamiento de la variable dependiente puede ser totalmente descrito por una función matemática de las variables independientes. Es decir, en condiciones ideales el modelo permite predecir SIN ERROR el valor de la variable dependiente
Análisis de Regresión
Técnica estadística para derivar una ecuación, que relaciona una variable de criterio con una o mas variables de predicción. cuando se usa una variable de predicción el análisis de regresión es simple,si se utiliza dos o más variables el análisis de regresión es múltiple.
Coeficiente de Regresión Parcial
Cantidad que resulta de un análisis de regresión múltiple, indica el cambio promedio en una variable de criterio por cambio unitario en una variable predictiva, en igualdad de circunstancias en todas como variables de cricción.
Regresión Múltiple
Coeficiente de Determinación R2
Determina el grado de correlación entre las variables El coeficiente de determinación, también llamado R cuadrado, refleja la bondad del ajuste de un modelo a la variable.
La regresión puede ser lineal y curvilínea o no lineal. pueden ser
Coeficiente de Regresión
Indica el número de unidades en que se modifica la variable dependiente "Y" por efecto del cambio de la variable independiente "X" o viceversa en una unidad de medida.
El coeficiente de regresión puede ser:
Positivo, Negativo y Nulo.
CORRELACIÓN
DEFINICIÓN:
Indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación entre ellas si al disminuir los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad
Coeficiente de Correlación (Coeficiente de Pearson)
Es una medida de dependencia lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
Incorrelacionadas
Si r = 0 se dice que las variables están incorrelacionadas: no puede establecerse ningún sentido de covariación.
Correlación positiva
Si r > 0 Hay correlación positiva: las dos variables se correlacionan en sentido directo. A valores altos de una le corresponden valores altos de la otra e igualmente con los valores bajos. Cuánto más próximo a +1 esté el coeficiente de correlación más patente será esta covariación. Si r = 1 hablaremos de correlación positiva perfecta lo que supone una determinación absoluta entre las dos variables (en sentido directo): Existe una relación lineal perfecta (con pendiente positiva).
Correlación negativa
Si r < 0 Hay correlación negativa: las dos variables se correlacionan en sentido inverso. A valores altos de una de ellas le suelen corresponder valor bajo de la otra y viceversa. Cuánto más próximo a -1 esté el coeficiente de correlación más patente será esta variación extrema. Si r= -1 hablaremos de correlación negativa perfecta lo que supone una determinación absoluta entre las dos variables (en sentido inverso): Existe una relación funcional perfecta entre ambas (una relación lineal de pendiente negativa).