Mezclas de Gaussianas (GMM)

Es una herramienta poderosa en el análisis estadístico y aprendizaje automático para modelar la distribución de datos y realizar tareas como clasificación, segmentación y agrupamiento (clustering)

Algoritmo de Estimación de Parámetros

Paso de Expectación E: Calcular las probabilidades posteriores de que cada punto de datos pertenezca a cada componente, utilizando los parámetros actuales.

Paso de Maximización M: Actualizar los parámetros (medias, varianzas y pesos) para maximizar la probabilidad de los datos dados las asignaciones de componentes.

Inicialización: Inicializar las medias, varianzas y pesos de los componentes

Repetición: Repetir los pasos E y M hasta la convergencia, es decir, hasta que los cambios en los parámetros sean menores que un umbral predefinido.

Aplicaciones de GMM

Modelado de Densidad: Estimación de la distribución subyacente de los datos.

Reconocimiento de Patrones: Clasificación de datos en base a patrones aprendidos.

Clustering: Agrupamiento de datos en subgrupos, donde cada subgrupo se modela con una distribución gaussiana.

Segmentación de Imágenes: Separación de una imagen en diferentes regiones basadas en la intensidad de los píxeles.

Comceptos claves

Distribución Gaussiana (Normal): Una distribución continua con una forma de campana, definida por dos parámetros: la media y la varianza.

Componentes: Cada distribución gaussiana en la mezcla se llama un componente. Un GMM con K componentes tiene k distribuciones gaussianas.

Mezcla de Distribuciones: Un GMM asume que los datos provienen de una combinación (mezcla) de varias distribuciones gaussianas.

Parámetros del Modelo: Un GMM se define por los siguientes parámetros:

Medias de cada componente.

Varianzas o matrices de covarianza (para datos multivariados) de cada componente

Pesos de cada componente