Please enable JavaScript.
Coggle requires JavaScript to display documents.
El traje nuevo de la IA - Coggle Diagram
El traje nuevo de la IA
El nacimiento de una fiebre
El entusiasmo actual por la IA se debe al éxito del aprendizaje profundo en el reconocimiento de imágenes, juegos de tablero y procesamiento del lenguaje.
En 2012, un equipo de la Universidad de Toronto liderado por Geoffrey Hinton logró que una red neuronal convolucional alcanzara un 85% de precisión al clasificar imágenes en la base de datos ImageNet.
Las redes convolucionales se inspiraron en los estudios de Hubel y Wiesel sobre la jerarquía de capas en la corteza visual, donde las neuronas en cada capa detectan características de complejidad creciente en los objetos de una imagen.
Las redes convolucionales son invariantes a la escala y la traslación, pero no a las rotaciones, lo que ha llevado a la investigación de algoritmos capaces de identificar objetos rotados.
Aunque se ha afirmado que las redes neuronales aprenden por sí mismas, en realidad requieren un esfuerzo significativo de los programadores para preparar y configurar la red antes de que pueda comenzar a aprender.
Los programadores deben definir diversos aspectos de la arquitectura de la red, como el número de capas intermedias, las funciones de activación y los hiperparámetros asociados al algoritmo de propagación del error.
Reconocimiento de imagenes: Aprendizaje superficial
Los humanos pueden aprender a reconocer categorías con solo unos pocos ejemplos, a diferencia de las máquinas que requieren millones de ejemplos.
Los humanos interactúan con el entorno utilizando todos los sentidos y su cuerpo, lo cual va más allá de simplemente reconocer objetos en una imagen.
Las habilidades humanas incluyen la capacidad de extraer vínculos entre objetos, comprender movimientos y predecir acciones, lo que es esencial para la toma de decisiones.
Existe una gran dificultad para que las máquinas aprendan a analizar imágenes debido a la necesidad de habilidades adicionales como la abstracción, el entendimiento del lenguaje y el razonamiento con sentido común.
Muchos investigadores en IA no consideran el aprendizaje supervisado como el mejor enfoque para lograr una IA general debido a la dificultad de etiquetar todos los objetos que se pueden observar en el mundo y el problema de la "cola larga".
El "problema de la caja negra" hace que sea difícil explicar las decisiones tomadas por los sistemas de aprendizaje profundo.
La "IA explicable" es una línea de investigación activa que busca hacer que las máquinas puedan explicar sus decisiones de manera comprensible para las personas.
La falta de confianza en la IA se debe a su vulnerabilidad para ser engañada y su falta de una "teoría de la mente" sobre los humanos.
Existen preocupaciones éticas y de prudencia con respecto al uso de la IA en aplicaciones como el reconocimiento facial debido a su fragilidad y falta de sentido común.
Juegos de Tablero: Incapacidad de Generalizar
El aprendizaje por refuerzo es una técnica de IA que ha ganado popularidad en los últimos años y se ha combinado con éxito con otras técnicas, como las redes convolucionales profundas.
El aprendizaje por refuerzo se basa en que un agente aprende a partir de las consecuencias de las acciones que ejecuta y busca maximizar el refuerzo acumulado.
Un ejemplo de aprendizaje por refuerzo es un ratón que aprende a recorrer un laberinto para llegar a un trozo de queso, donde las acciones y estados son asociados.
La técnica de aprendizaje por refuerzo tiene dificultades en cuanto a la escalabilidad cuando el número de estados y acciones posibles es muy elevado.
Los algoritmos de aprendizaje por refuerzo son específicos y no pueden transferir fácilmente el conocimiento de un juego a otro, lo que contrasta con la capacidad de generalización y transferencia del aprendizaje humano.
La transferencia de conocimiento entre tareas es un área activa de investigación en IA y se considera un paso importante hacia la IA general.
El diseño de inteligencias artificiales específicas enfrenta desafíos significativos y se limita a entornos y tareas bien definidas.
Los simuladores de entornos complejos presentan desafíos en cuanto a la consideración de propiedades físicas y situaciones imprevistas.
Procesamiento del Lenguaje: Ni contexto ni semántica
El procesamiento del lenguaje natural ha experimentado avances espectaculares, gracias al uso de redes neuronales recurrentes profundas. Estas redes permiten procesar secuencias de datos de longitud variable, como las secuencias de palabras en lenguaje.
A diferencia de las redes convolucionales, que tienen una matriz de entrada de tamaño fijo, las redes neuronales recurrentes profundas están diseñadas para procesar secuencias de datos de longitud variable. Cada neurona en estas redes está conectada no solo a las capas anterior y posterior, sino también entre sí, lo que les permite tener cierta "memoria" y relacionar cada palabra con la precedente.
Al igual que en el procesamiento de imágenes, el procesamiento automático del lenguaje requiere convertir las palabras en números. Esto se logra mediante la transformación de las palabras en vectores de números reales. Las palabras que tienden a aparecer juntas en muchos textos estarán representadas por vectores cercanos entre sí, lo que permite capturar la similitud semántica.
Aunque ha habido avances en el procesamiento del lenguaje, se señala que todavía no existe ningún sistema de procesamiento automático capaz de inferir una gran cantidad de conocimientos de sentido común presentes en un texto. La comprensión profunda del lenguaje natural sigue siendo uno de los mayores desafíos para la inteligencia artificial.
Los sistemas de traducción automática, como Google Translate, logran buenos resultados gracias a entrenamientos con grandes cantidades de frases traducidas correctamente, pero no realizan un análisis semántico profundo. La comprensión semántica sería necesaria para inferir relaciones y responder preguntas que no están explícitamente en el texto.
Conversar con máquinas de manera robusta en lenguaje natural y sobre diversos temas sigue siendo una meta lejana. Se afirma que no parece que se vaya a lograr solo analizando grandes cantidades de datos, sino atacando el problema de dotar a las máquinas de sentido común en el lenguaje.