Please enable JavaScript.
Coggle requires JavaScript to display documents.
APRENDIZAJE NO SUPERVISADO - Coggle Diagram
APRENDIZAJE NO SUPERVISADO
El aprendizaje no supervisado es un tipo de red neuronal artificial que no necesita un profesor o asesor externo para aprender. A diferencia del aprendizaje supervisado, la red no recibe información del entorno que le indique si la respuesta que está generando es correcta o incorrecta.
Problemas que Resuelve
Análisis de Componentes Principales
Agrupamiento (Clustering)
Extracción de Características
Codificación
Prototipado
RED DE HOPFIELD
Una de las mayores contribuciones en el área de las redes neuronales fue desarrollada por el físico John Hopfield en la década de los 80. Hopfield propuso un modelo neuronal no lineal que lleva su nombre y que ha tenido gran impacto en el campo.
Estructura:
Una sola capa de S neuronas
Cada neurona conectada a todas las demás (excepto a sí misma)
Matriz de pesos W simétrica: Wij = Wji
Sin autoconexiones: Wii = 0
Valores binarios: -1 y 1
Funcionamiento:
Aprendizaje OFF-LINE (2 fases)
Fase 1 - Aprendizaje: Construir matriz W = Σ(pᵢᵀpᵢ - I)
Fase 2 - Recuperación: Multiplicación iterativa hasta estabilización
MAPAS AUTO-ORGANIZATIVOS DE KOHONEN (SOM)
A partir de estas ideas sobre cómo funciona el cerebro, Teuvo Kohonen presentó en 1982 un modelo de red neuronal con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro biológico.
Características:
Red monocapa (entrada = salida)
Aprendizaje competitivo
OFF-LINE (entrenamiento + funcionamiento)
Necesita MUCHAS iteraciones (≥ 500)
Algoritmo (7 pasos):
Elegir topología
Fijar iteraciones (k ≥ 500)
Inicializar pesos W aleatorios
Calcular distancia Euclidiana: d² = Σ(pij - Wj)²
Elegir neurona con distancia MÍNIMA (ganadora)
Actualizar pesos: Wi(nuevo) = Wi(viejo) + α(pi - Wi(viejo))
Repetir con todos los patrones
Estructura:
Neuronas en mapa bidimensional
Topología: rectangular o hexagonal
Función competitiva: 1 para ganadora, 0 para el resto
Concepto Clave: VECINDAD Ni(d)*
Zona alrededor de neurona ganadora
Radio d define el tamaño
Se actualizan pesos de ganadora Y vecinas
Ejemplo: N13(1) = {8, 12, 13, 14, 18}
LEARNING VECTOR QUANTIZATION (LVQ)
Estructura:
RED BICAPA
Capa 1: Competitiva (S₁ neuronas = subclases)
Capa 2: Lineal (S₂ neuronas = clases)
Condición: S₁ ≥ S₂
Ventajas:
Un solo 1 por columna, resto ceros
La fila del 1 indica la clase
Ejemplo: Wki² = 1 → subclase i pertenece a clase k
W² NUNCA se modifica después de crearse
Algoritmo:
Crear matriz W² (asignar subclases a clases)
Presentar patrón pi
Calcular distancias
Competencia → neurona ganadora i*
Obtener clase k* (multiplicando por W²)