Please enable JavaScript.
Coggle requires JavaScript to display documents.
Mezclas de Gaussianas (GMM) - Coggle Diagram
Mezclas de Gaussianas (GMM)
Es una herramienta poderosa en el análisis estadístico y aprendizaje automático para modelar la distribución de datos y realizar tareas como clasificación, segmentación y agrupamiento (clustering)
Algoritmo de Estimación de Parámetros
Paso de Expectación E: Calcular las probabilidades posteriores de que cada punto de datos pertenezca a cada componente, utilizando los parámetros actuales.
Paso de Maximización M: Actualizar los parámetros (medias, varianzas y pesos) para maximizar la probabilidad de los datos dados las asignaciones de componentes.
Inicialización: Inicializar las medias, varianzas y pesos de los componentes
Repetición: Repetir los pasos E y M hasta la convergencia, es decir, hasta que los cambios en los parámetros sean menores que un umbral predefinido.
Aplicaciones de GMM
Modelado de Densidad: Estimación de la distribución subyacente de los datos.
Reconocimiento de Patrones: Clasificación de datos en base a patrones aprendidos.
Clustering: Agrupamiento de datos en subgrupos, donde cada subgrupo se modela con una distribución gaussiana.
Segmentación de Imágenes: Separación de una imagen en diferentes regiones basadas en la intensidad de los píxeles.
Comceptos claves
Distribución Gaussiana (Normal): Una distribución continua con una forma de campana, definida por dos parámetros: la media y la varianza.
Componentes: Cada distribución gaussiana en la mezcla se llama un componente. Un GMM con K componentes tiene k distribuciones gaussianas.
Mezcla de Distribuciones: Un GMM asume que los datos provienen de una combinación (mezcla) de varias distribuciones gaussianas.
Parámetros del Modelo: Un GMM se define por los siguientes parámetros:
Medias de cada componente.
Varianzas o matrices de covarianza (para datos multivariados) de cada componente
Pesos de cada componente