Please enable JavaScript.
Coggle requires JavaScript to display documents.
Redes Neuronales de Estado Discreto - Coggle Diagram
Redes Neuronales de Estado Discreto
Fundamentos de RNED
Inspiradas en el cerebro humano
Neuronas con estados finitos (generalmente binarios: 0 y 1 o -1 y 1)
Funcionan en pasos discretos
Utilizadas en reconocimiento de patrones, memoria asociativa y optimización
Funciones de Activación Discreta Comunes
Función escalón (Heaviside)
Salida: 0 o 1
Activa si la suma ponderada supera un umbral
Función signo (Signum)
Salida: -1 o 1
Utilizada en redes de Hopfield
Función lógica (AND, OR, NOT)
En modelos muy básicos
Función escalón bipolar
Alternativa al escalón tradicional (valores -1 y 1)
Redes de Hopfield
Red recurrente completamente conectada
Neuronas binarias (-1 o 1)
Funciona como memoria asociativa
Convergencia hacia estados estables (mínimos locales de energía)
Útil para almacenamiento y recuperación de patrones
Máquinas de Boltzmann
Variante estocástica de la red de Hopfield
Neuronas con probabilidades de activación (uso de temperatura)
Permiten escapar de mínimos locales
Aplicadas en aprendizaje no supervisado y reducción de dimensionalidad
Ventajas y Desventajas de una RNED
Ventajas
Buena capacidad de almacenamiento asociativo (Hopfield)
Simples y eficientes para tareas específicas
Fácil implementación hardware
Desventajas
Capacidad limitada (número de patrones memorizables)
Sensibles a ruido
Dificultad para tareas más complejas
Poca capacidad de generalización
Perceptrón
Modelo de red neuronal simple (una sola capa)
Utiliza funciones de activación discreta (escalón)
Aprende por regla del perceptrón
Limitación: solo resuelve problemas linealmente separables
Base para redes neuronales multicapa (MLP)