Please enable JavaScript.
Coggle requires JavaScript to display documents.
Modelos de ML para regresiones - Coggle Diagram
Modelos de ML para regresiones
Que son
Son métodos estadísticos que buscan predecir valores continuos a partir de variables independientes que intentan ajustar una función que minimice el error entre predicciones y valores reales.
Tipos de modelos de regresion
Regresión No paramétrizadas
Regresión segmentada
Divide la variable independiente en intervalos y ajusta diferentes modelos en cada segmento, útil cuando hay cambios abruptos en la relación entre variables
Tobit
Diseñado para situaciones donde la variable dependiente está censurada, es decir, cuando hay un límite inferior o superior en los valores observados
Regresiones Locales
Ajusta modelos simples a subconjuntos locales de los datos, permitiendo capturar relaciones complejas sin especificar una función global
Regresión Ordinal
Utilizada cuando la variable dependiente es ordinal, es decir, tiene un orden natural pero las diferencias entre categorías no son necesariamente iguales.
Regresión de Vectores de soporte
Extensión de las máquinas de vectores de soporte para problemas de regresión, eficaz en espacios de alta dimensión.
Regresión de Árboles de decisión
Modelos que utilizan estructuras de árbol para capturar relaciones no lineales y complejas entre variables. Los bosques aleatorios combinan múltiples árboles para mejorar la precisión y evitar el sobreajuste
Regresión de combinados y especializados
Modelos Mixtos
Incorporan efectos fijos y aleatorios, siendo útiles para datos jerárquicos o con medidas repetidas
Modelos Aditivos Mixtos generalizados
Combinan las características de los modelos aditivos y mixtos, adecuados para datos complejos que presentan no linealidad y estructuras jerárquicas
Modelos Aditivos generalizados
Permiten modelar relaciones no lineales entre la variable dependiente y cada variable independiente mediante funciones de suavizado.
Regresiones Avanzadas
Regresión Lasso
Similar a Ridge, pero puede reducir algunos coeficientes exactamente a cero, realizando una selección de variables automática.
Regresión Elastic
Combina las penalizaciones de Ridge y Lasso, siendo útil cuando hay muchas variables correlacionadas.
Regresión Mínimos Cuadrados
Reduce las variables independientes a un conjunto menor de componentes no correlacionados, siendo útil cuando hay muchas variables y multicolinealidad.
Regresión con componentes principales
Similar a PLS, pero utiliza componentes principales de las variables independientes sin considerar la variable dependiente durante la reducción de dimensionalidad.
Regresión Ridge
Aplica una penalización a los coeficientes de regresión para manejar la multicolinealidad entre variables independientes, mejorando la estabilidad del modelo
Regresiones Clásicas
Regresión de Poisson
Adecuada para modelar variables de conteo, como el número de veces que ocurre un evento en un intervalo de tiempo o espacio.
Regresión Logística
Utilizada cuando la variable dependiente es categórica, especialmente binaria (por ejemplo, éxito/fallo). Modela la probabilidad de que ocurra un evento
Regresión Polinomial
Extiende la regresión lineal al incluir términos polinómicos, permitiendo modelar relaciones no lineales entre variable
Regresión Lineal
Modela la relación entre una variable dependiente y una o más variables independientes mediante una línea recta. Es útil cuando la relación entre las variables es lineal
Características
Evaluación
Uso de métricas como error cuadrático medio (MSE), error absoluto medio (MAE) para medir precisión.
Interpretabilidad
Algunos modelos como la regresión lineal son fáciles de interpretar, mientras que otros (redes neuronales) son más "caja negra".
Supervisión
Modelos entrenados con datos etiquetados (entrada y salida conocidas).
Problema de sobreajuste
Riesgo de que el modelo se ajuste demasiado a los datos de entrenamiento y no generalice bien
Aplicaciones
Predicción de precios
Modelado de riegos financieros
Estimación de demanda o consumo
Pronóstico de ciencias naturales y sociales