Please enable JavaScript.
Coggle requires JavaScript to display documents.
Historia de la Inteligencia Artificial, el Machine Learning y el Deep…
Historia de la Inteligencia Artificial, el Machine Learning y el Deep Learning
Inteligencia Artificial
Concepto

La inteligencia artificial es, en las ciencias de la computación, la disciplina que intenta replicar y desarrollar la inteligencia y sus procesos implícitos a través de computadoras.
-
Machine Learning
Es una disciplina del campo de la Inteligencia Artificial que, a través de algoritmos, dota a los ordenadores de la capacidad de identificar patrones en datos masivos y elaborar predicciones (análisis predictivo).
-
1957: Frank Rosenblatt diseñó Perceptron, instrumento desarrollado para clasificar, explicar y modelar habilidades de reconocimiento de patrones en imágenes.
-
1963: Donald Michie construyó MENACE, una computadora mecánica hecha de 304 cajas de fósforos diseñadas y construidas por Michie ya que no contaba con una computadora.
-
-
1967: Algoritmo del vecino más cercano. También conocido como k-NN, es uno de los algoritmos de clasificación más básicos y esenciales del Machine Learning.
-
1970: Seppo Linnainmaa y la diferenciación automática. Este método se conoció más tarde como propagación hacia atrás y se usa para entrenar redes neuronales artificiales.
-
-
1979: Hans Moravec creó el primer vehículo autónomo. El Standford Cart fue el primer vehículo autónomo controlado por una computadora y capaz de esquivar obstáculos en un entorno controlado.
-
-
1981: Gerald Dejong y el concepto EBL. un método de Machine Learning que hace generalizaciones o forma conceptos a partir de ejemplos de entrenamiento que le permiten descartar datos menos importantes o que no afecten a la investigación.
1985: Terry Sejnowski inventa NETtalk. es una red neuronal artificial. Este software aprende a pronunciar palabras de la misma manera en que lo haría un niño.
-
-
1990: Kearns y Valiant plantearon Boosting. Es un meta-algoritmo de Machine Learning que reduce el sesgo y varianza en el aprendizaje supervisado para convertir un conjunto de clasificadores débiles a un clasificador fuerte.
-
1997: Jürgen Schmidhuber y Sepp Hochreiter crearon el Reconocimiento del discurso. Es una técnica que con su evolución la hemos llegado a utilizar a diario en aplicaciones y dispositivos como Alexa de Amazon, Siri de Apple, Google Translate y más.
-
-
2002: Lanzamiento de Torch. biblioteca de código abierto que proporcionaba un entorno de desarrollo numérico, Machine Learning y Computer Vision con un énfasis en particular en Deep Learning.
-
2006: Reconocimiento facial. Se evaluó el reconocimiento facial a través de análisis facial en 3D e imágenes con alta resolución. El premio Netflix que consistía en que los participantes debían crear algoritmos de Machine Learning con la mayor eficacia para recomendar contenido y predecir calificaciones de los usuarios para películas, series y documentales.
-
-
2009: Fei-Fei Li creó ImageNet. permitió avances importantes en el Deep Learning y el reconocimiento de imágenes, con una base de 140 millones de imágenes.
-
2010: Kaggle, la comunidad para científicos de datos. plataforma creada por Anthony Goldbloom y Ben Hamner. Es subsidiaria de Google y reúne a la comunidad de Data Science y Machine Learning más grande del mundo.
-
-
-
2011: IBM y su sistema Watson. Esta herramienta cuenta con una base de datos construida a partir de numerosas fuentes como enciclopedias, artículos, diccionarios, obras literarias y más, además consulta fuentes externas para aumentar su capacidad de respuesta.

Watson es un sistema informático de inteligencia artificial, que ha sido diseñado por IBM con el objetivo de comprender el lenguaje y la mente humana.
2014: Facebook desarrolla Deep Face. Algoritmo de software que reconoce individuos en las fotos al mismo nivel que lo hacen los humanos llamado Deep Face.
-
Deep Learning
Es un tipo de machine learning que entrena a una computadora para que realice tareas como las hacemos los seres humanos, como el reconocimiento del habla, la identificación de imágenes o hacer predicciones.
1986: Se crea el procesamiento distribuido en paralelo. Este fue un gran paso dentro del mundo del Deep Learning ya que permitió entrenar redes neuronales más complejas, lo cual era uno de los obstáculos más grandes en esta área
-
-
-
1943: Red neuronal de Pitts y McCulloch. Warren McCulloch, y el psicólogo cognitivo, Walter Pitts, publicaron “A Logical Calculus of the ideas Imminent in Nervous Activity” en 1943, en el que describen la neurona “McCulloch - Pitts”, el primer modelo matemático de una red neuronal.
-
-
1960: Henry J. Kelley inventa el Modelo de propagación hacia atrás. Es la esencia del entrenamiento de redes neuronales, con el cual ser pueden refinar los modelos de Deep Learning.
-
1979: Fukushimma diseña las primeras redes neuronales convolucionales con Neocognitron. Este diseño le permitía a la computadora reconocer patrones visuales. También permitía incrementar el peso de ciertas conexiones en las características más importantes.
-
-
1982: Se inventa Red de Hopefield. La principal innovación de esta red es su sistema de memoria que ayudará a varios modelos de RNR en la era moderna del Deep Learning.
1989: Yann LeCun demuestra de manera práctica el modelo de propagación para atrás. combinó las redes neuronales convolucionales con la propagación hacia atrás para enseñarle a una máquina a leer dígitos escritos a mano.
-
1997: Deep Blue de IBM vence a Garry Kasparov. venció dos partidas, empató tres y perdió una, lo cual convertía a esta computadora en la primera campeona virtual del mundo de ajedrez.
-
1999: Nvidia crea el primer GPU. Geforce 256 fue el primer GPU de la historia, creado en 1999 por Nvidia. Esta tecnología liberaría posibilidades que antes solo eran posibles en teoría.
-
2006: Se crean las redes de creencia profunda. Este tipo de red neuronal hizo que el proceso de entrenamiento con grandes cantidades de datos fuera más sencillo.
2008: GPU para Deep Learning. 10 años después del primer GPU creado por Nvidia, el grupo de. Andrew NG en Stanford empezaron a promocionar el uso de GPUs especializados para Deep Learning.
-
2012: El experimento del gato de Google. Google mostró más de 10 millones de videos aleatorios de YouTube a un cerebro y después de mostrarle más de 20,000 distintos objetos, comenzó a reconocer imágenes de gatos usando algoritmos de Deep Learning, sin que se le indicara las propiedades o características de los mismos.
2014: Se crean las redes neuronales generativas adversarias. lo cual abre una nueva puerta en los avances tecnológicos dentro de áreas tan diferentes como las artes y las ciencias, gracias a su habilidad de sintetizar datos reales.
Ian Goodfellow
2016: AlphaGo vence al campeón mundial de Go. El modelo de aprendizaje profundo por refuerzo de Deepmind vence al campeón humano en el complejo juego del Go
-
2020: AlphaFold 2020. sistema de IA desarrollado por DeepMind que predice la estructura 3D de una proteína a partir de su secuencia de aminoácidos. Regularmente alcanza una precisión que compite con la de los experimentos.
-
2022: IMAGEN y Dall-E mini. En este año, Google y Deepmind lanzan sus dos modelos que pueden crear imágenes originales a partir de líneas de texto alimentadas por los usuarios.
-