Please enable JavaScript.
Coggle requires JavaScript to display documents.
Aprendizaje no supervisado - Coggle Diagram
Aprendizaje no supervisado
Concepto y objetivos
No requiere señal externa de corrección
La red descubre por sí misma características, regularidades y categorías
Posibilidades
Análisis de componentes principales (PCA)
Agrupamiento (clustering) y asignación de clases
Prototipado (representantes por clase)
Codificación/compresión (representación de menor dimensión)
Extracción y relación de características (mapas topológicos similares → respuestas similares)
Criterios de aprendizaje (modifican conexiones)
Aprendizaje hebbiano
“Las neuronas que se activan juntas, se refuerzan”
Sin factor externo; refuerzo según actividad conjunta
Aprendizaje competitivo (winner takes all)
Las neuronas compiten; una ganadora se activa
Se modifican solo los pesos de la neurona ganadora (y vecinas según el modelo)
Historia e influencias
Hebb (1949) • MacKay (1956) • Marr (1970)
Hinton & Sejnowski (1986): Máquina de Boltzmann
Barlow (1992): caracterización de códigos neurales
Kohonen (SOM/LVQ): mapas auto-organizativos
Red de Hopfield (memoria asociativa)
Estructura
Una sola capa con S neuronas (salidas en {-1, 1})
Matriz de pesos W simétrica (Wij = Wji), diagonal nula (Wii = 0)
Funcionamiento recurrente; versión discreta (hardlims)
Aprendizaje OFF-LINE (fase de almacenamiento y fase de recuperación)
Algoritmo
Aprendizaje: W = Σ (pᵢᵀ pᵢ) − I
Funcionamiento: a(1) = hardlims(EW); iterar hasta estabilidad a(k) = a(k+1)
Sin bias en el modelo discreto básico
Ejemplo
Dos patrones de 4 entradas → 4 neuronas
Recupera el patrón almacenado más parecido ante entradas incompletas o con ruido
Mapas auto-organizativos de Kohonen (SOM)
Estructura
Red monocapa competitiva; la capa recibe y procesa (entrada/salida)
Neuronas organizadas en mapa bidimensional (rectangular o hexagonal)
Salida competitiva: una ganadora (aᵢ* = 1, demás 0)
Vecindad Nᵢ*(d): pesos de ganadora y vecinas se actualizan
Topologías/Distancias: Manhattan/Euclídea; radios de vecindad decrecientes
Algoritmo de entrenamiento
1) Elegir topología y vecindad
2) Fijar iteraciones k (típico k ≥ 500)
3) Inicializar W y radio d (valores pequeños)
4) Para cada patrón p: calcular distancias a cada neurona
5) Elegir neurona ganadora i*
6) Actualizar pesos: Wᵢ(k+1) = Wᵢ(k) + α(k) (p − Wᵢ(k)), i ∈ Nᵢ*(d)
7) Repetir; decrecer α(k) con k
Ejemplo
Clasifica patrones; a mayor entrenamiento, mapa más selectivo (zonas activas más pequeñas)
Learning Vector Quantization (LVQ)
Estructura
Red bicapa: 1ª competitiva (subclases), 2ª lineal (clases)
S₁ ≥ S₂; W² mapea subclases → clases (una “1” por columna)
Competencia por distancia: n₁ᵢ = −‖W¹ᵢ − pᵀ‖ ; a₁ = compet(n₁) ; a₂ = W² a₁
Permite regiones de decisión no convexas combinando subclases
Algoritmo de entrenamiento
Asignar W² (subclases→clase); dataset con etiquetas (p, t)
Para cada p
:
Seleccionar neurona oculta ganadora i* (más cercana)
Obtener clase k* (a₂ = W² a₁)
Si clasificación correcta: W¹ᵢ
(q) ← W¹ᵢ
(q−1) + α (pᵀ − W¹ᵢ*(q−1))
Si incorrecta: W¹ᵢ
(q) ← W¹ᵢ
(q−1) − α (pᵀ − W¹ᵢ*(q−1))
Iterar hasta error ≤ ε
Ejemplo
Define clases con varias subclases; ajusta prototipos hacia su clase y se aleja de otras