Please enable JavaScript.
Coggle requires JavaScript to display documents.
Mapa Mental Semana 8 - Coggle Diagram
Mapa Mental Semana 8
Redes neuronales recurrentes
Estructura
Se utiliza una memoria interna para procesas secuencias de datos
Cada neurona en una capa recibe la entrada actual y también la salida de la neurona en la iteración anterior.
Permiten que las salidas de una capa se utilicen como entrada en la siguiente iteración
Funcionamiento
Estado oculto, Se utiliza en cada paso temporal y captura la información relevante de la secuencia previa.
Retro propagación en el tiempo, se utiliza para la actualización de los pesos de la RNN
Procesamiento secuencial, Procesan datos secuencialmente, lo que las hace ideal para las tareas en cierto orden
Aplicaciones
Procesamiento de lenguaje natural
Series temporales, predicción de valores futuros y detección de anomalías
LSTM (Long Short - Term Memory) y variantes
Cuando las RNN simples tienen problemas para aprender dependencias a largo plazo. Se utiliza las LSTM las cuales están diseñadas para mitigar ese problema y permiten a la red mantener y olvidar información de manera controlada.
Arquitectura
Celdas LSTM
Puerta de entrada, Controla cuánto de la nueva información debe ser almacenada
Puerta de olvido, decide cuánta información de la celda previa debe ser olvidada
Puerta de salida, determina qué parte del estado de la celda se utiliza como salida
Mecanismo de memoria, Pueden recordar información durante periodos largos, lo que permite manejar secuencias largas y dependencias a largo plazo.
Variantes
Bidirectional, Procesa secuencias en ambas direcciones, lo que mejora la comprensión del contexto en tareas como traducción automática.
GRU, estructura mas simple, solo tiene una puerta que se utiliza para la entrada y para el olvido.
Consume menos recursos
Stacked, Consiste en aplicar múltiples capas, lo que permite la captura de patrones más complejos