Please enable JavaScript.
Coggle requires JavaScript to display documents.
ANÁLISIS DE DATOS UNIVARIADO Y BIVARIADO, ALDRIN LIMA VIDAL - Coggle…
ANÁLISIS DE DATOS UNIVARIADO Y BIVARIADO
1.Introducción al análisis estadístico univariado.
Escalas de medición
:
• Nominal: números identifican y clasifican objetos, se permite porcentaje de moda, prueba binomidal.
• Ordinal: Números indican posición relativa de objetos, pero no la magnitud de las diferencias entre ellos, se permite calculo de la mediana, correlación de rangos, ANOVA.
• Interval: se compara las diferencias entre objetos, el punto cero es arbitrario, usa el rango, media, desviación estándar, correlación de producto, ANOVA, regresión análisis factorial.
• De razón: El punto cero es fijo, pueden calcularse los valores de la razón de la escala, se usa la media geométrica, media armónica, coeficiente de variación.
Niveles básicos de escala.
En tendencia central de mediciones:
:
• Moda
• Mediana
• Media
Dispersión.
:
• Distribución de frecuencia
• Rango
• Desviación estándar estimada
SPSS tiene la
:
• capacidad de trabajar con un gran número de variables (33.000 aprox)
• utilizar siempre la opción correspondiente a distintas variables (conservar los datos originales.)
• permite agrupar la información pero NO permite desagruparla,es decir, podemos utilizar los procedimientos para convertir una variable de escala a una variable de categorías (Ordinal), pero no en viceversa.
2.Introducción al análisis estadístico bivavariado
CORRELACIÓN BIVARIADAS de Pearson
:
• Pruebas bilaterales o de dos colas
• Se asocia a una hipótesis alternativa, donde se desconoce el signo de la potencial diferencia.
• Pruebas unilaterales o de una cola
• Está asociada a una hipótesis alternativa para la cual se conoce el signo de la potencial diferencia antes de ejecutar el experimento y la prueba.
• Otros estadísticos de asociación o dependencia
COEFICIENTE DE CORRELACIÓN (R)
:
• plantean que las dos variables se midieron con escalas de medición de intervalo o de razón. La hipótesis nula de la correlación de Pearson indica que no hay asociación entre las dos variables y que el coeficiente de correlación es cero.
• Una relación lineal positiva entre dos variables X e Y significa que los valores de las dos variables varían de forma parecida: los sujetos que puntúan alto en X tienden a puntuar alto en Y y los sujetos que puntúan bajo en X tienden a puntuar bajo en Y.
• Una relación lineal negativa significa que los valores de ambas variables varían justamente al revés: los sujetos que puntúan alto en X tienden a puntuar bajo en Y y los sujetos que puntúan bajo en X tienden a puntuar alto en Y.
• Toma valores entre –1 y 1: un valor de 1 indica relación lineal perfecta positiva; un valor de –1 indica relación lineal perfecta, un valor de 0 indica relación lineal nula.
• El coeficiente de correlación rho de Spearman (1904) es el coeficiente de correlación de Pearson, pero aplicado después de transformar las puntuaciones originales en rangos. Toma valores entre –1 y 1, y se interpreta exactamente igual que el coeficiente de correlación de Pearson
Chi cuadrado de PEARSON(𝑿𝟐).
:
• permite saber el grado de asociación entre variables, se considera dos hipótesis:
• H0 = Existe independencia entre variables, para ello se considera un valor de (X 2 ) >0,05.
• HA = Existe dependencia entre variables, para ello se considera un valor de (X 2 ) < 0,05, por tanto se rechaza la H0, es decir, existe ASOCIACIÓN entre ambas variables.
• Los resultados de Chi-cuadrado se distorsionarán si más de 20% de las celdas tienen un conteo esperado de menos de 5, o si alguna celda tiene un conteo esperado de menos de 5, o si cualquier celda tiene un conteo esperado de menos de 1.
VARIABLES NOMINALES
V de Cramer
:
• Se usa para matrices no cuadráticas
• Donde una de las dos variables tiene mas de 2 categorias
• Se considera valores entre 0 a 1, si es cercano a 0 no tienen asociación entre variables y 1 indica fuerte asociación
Coeficiente de contingencia
• Es el Phi ajustado, considera un rango entre 0 a C max
• Un valor cercano a 0 expresa no asociación entre las variables y en el caso opuesto un valor cercano a C max, indica una relación fuerte entre variables, nunca se llegara igual a 1
PHI
:
• Se entiende como variables dicotómicas, aquellas que solo expresan con respuesta uno de dos valores que pueden ser en ciertos casos 1 o 0.
• coCnsidera un rango entre -1 a 1, en donde un valor cercano a (1) obtiene una dependencia directa y perfecta
• Si el coeficiente es positivo, la dependencia es directa y más alta cuanto más se acerque a 1. El valor mínimo (-1) se obtiene cuando la dependencia es inversa y perfecta, si el coeficiente es negativo, la dependencia es inversa y más alta cuanto más se acerque a -1.
• El valor 0 se obtiene cuando hay independencia.
Coeficiente de incertidumbre.
Indica la reducción proporcional del error cuando los valores de una variable se emplean para pronosticar los valores de la otra variable.
Lambda
:
• Reducción proporcional en el error cuando se utilizan los valores de la variable independiente para pronosticar los valores de la variable dependiente.
• Un valor igual a 1 significa que la variable independiente pronostica perfectamente la variable dependiente.
• Un valor igual a 0 significa que la variable independiente no ayuda en absoluto a pronosticar la variable dependiente.
ESCALA ORDINAL
Tau-b de Kendall Y Tau-c de Kendall
:
• Extensión de la prueba Gamma y solo opera con matrices cuadráticas
• Considera valores entre -1 a 1, si es cerca de -1 significa asociación negativa entre variables, un valor cercano a 1 indica fuerte asociación positiva entre variables.
• La tau c es corrección de la b, para matrices no cuadráticas, donde un valor cercano a -1 significa una asociación negativa entre variables, y un valor cercano a 1 es una fuerte asociación positiva entre variables.
D de Somers
Es una medida de asociación que permite conocer la existencia de dependencia entre variables, también el grado de simetría entre variables, un valor cerca de -1 expresa dependencia negativa entre variables, un valor cercano a 1 indica una fuerte dependencia positiva entre variables
Gamma
• un valor cercano a -1 expresa una asociación negativa entre variable, caso contrario cerca a 1 indica una fuerte asociación positiva entre variables, cerca a 0 expresa no asociación entre las variables.
•Considera valores entre -1 a 1
ESCALA DEINTERVALO
Coeficiente ETA
:
• permite analizar los valores de una variable Y en escala de intervalo o razón
• Toma valores de 0 a 1, valores cercanos a 0 expresan que Y es independiente de los grupos (X), si se aproxima a 1 Y es dependiente de los grupos (X) la media de Y es mayor o menor que la media global dependiendo del grupo.
• Sirve para cuantificar el grado de asociación existente entre una variable cuantitativa y una categórica.
3. Tópicos de estadística descriptiva e inferencial
:
• Método para describir numéricamente un conjunto de datos.
• Se utilizan para resumir y describir los datos obtenidos de una muestra de entrevistados.
• Suelen emplearse dos tipos de mediciones, una de éstas la constituyen las medidas de tendencia central y la otra la conforman las medidas de dispersión.
• La estadística inferencial o inductiva, permiten generalizar (inferir, inducir) las propiedades de ese conjunto de datos empíricos (muestra) al conjunto total de datos (población) a los que representan; se corresponde con lo que anteriormente se ha llamado extracción de conclusiones.
• Para poder efectuar esta generalización (inferencia) de lo concreto a lo general es importante que el conjunto de datos utilizados para obtener información (muestra) sea representativo del conjunto total de datos (población) sobre el que se desea realizar la inferencia. Esto se consigue mediante las técnicas de muestreo, las cuales pertenecen al ámbito de la estadística
• La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo de ciertas relaciones que se toma como hipótesis. Esta toma de decisiones va acompañada de un margen de error, cuya probabilidad está determinada.
ALDRIN LIMA VIDAL