Please enable JavaScript.
Coggle requires JavaScript to display documents.
Aprendizaje No Supervisado - Coggle Diagram
Aprendizaje No Supervisado
Objetivos principales
🧩 Análisis de componentes principales (PCA): identificar las variables más representativas.
🧬 Agrupamiento (clustering): clasificar datos similares en clases.
🧠 Prototipado: obtener ejemplos típicos de cada clase.
💾 Codificación: comprimir datos sin perder información esencial.
🗺️ Extracción de características: crear mapas donde datos parecidos generen respuestas cercanas.
Tipos de aprendizaje
Hebbiano:
“Las neuronas que se activan juntas, se refuerzan juntas.”
Basado en Donald Hebb (1949).
Refuerza las conexiones entre neuronas activadas al mismo tiempo.
🥇 Competitivo:
Las neuronas compiten y solo la ganadora ajusta sus pesos.
“El ganador se lo lleva todo.”
Base de redes como SOM y LVQ.
🧩 Red de Hopfield
Funcionamiento
• Etapa de aprendizaje:
Guarda patrones
• Etapa de funcionamiento:
o Se presenta un patrón incompleto.
o Itera hasta estabilizarse.
o Recupera el patrón más parecido al aprendido.
Estructura
Una sola capa con S neuronas interconectadas.
Matriz de pesos simétrica
Sin autorreconexión
Actúa como memoria asociativa.
Mapas Auto-Organizativos de Kohonen (SOM)
Estructura
Una sola capa (entrada y salida combinadas).
Mapa topológico: neuronas organizadas en 2D.
Zona de vecindad: neuronas cercanas a la ganadora también ajustan pesos.
Vecindades pueden ser rectangulares o hexagonales.
Algoritmo de Aprendizaje
• Seleccionar topología y número de iteraciones.
• Inicializar pesos aleatorios.
• Calcular distancia Euclidiana entre entrada y pesos.
• Elegir la neurona ganadora (menor distancia).
• Actualizar pesos de la ganadora y su vecindad
• Repetir el proceso hasta estabilización.
Concepto
Inspirados en el cerebro humano (mapas sensoriales).
Organiza neuronas en un mapa bidimensional.
Aprende sin supervisión mediante competencia.
Cada neurona representa una categoría o grupo.
Learning Vector Quantization (LVQ)
🧩 Estructura
• • Primera capa: competitiva → aprende vectores prototipo.
• • Segunda capa: lineal → agrupa subclases.
• • Matriz: indica qué subclases pertenecen a cada clase.
• • Puede crear regiones de decisión complejas (no solo convexas).
Algoritmo de Aprendizaje
Presentar pares (entrada, salida esperada).
Calcular distancias entre entrada y cada neurona.
Elegir la neurona ganadora.
Si clasifica bien → se acerca al patrón.
Si clasifica mal → se aleja del patrón.
Repetir hasta alcanzar un error mínimo.
💡 Concepto
Combina aprendizaje supervisado y no supervisado.
Cada neurona representa una subclase.
Las subclases se agrupan en clases finales.
Mejora la precisión del SOM añadiendo una capa supervisada.