Please enable JavaScript.
Coggle requires JavaScript to display documents.
Antecedentes y bases de Inteligencia Artificial, Mia Sofia G. Contreras…
Antecedentes y bases de Inteligencia Artificial
¿Que es?
En terminos de fidelidad acerca del comportomaniento humano
Sistemas que piensan como humanos
"El nuevo y exitante esfuerzo de hacer que los computadores piensen ... maquinas con mentes, en el sentido mas amplio literal"(Haugeland,1985)
[La automatización de] actividades que vinculamos con procesos de pensamiento humano, actividades como la toma de decisiones, resolución
de problemas, aprendizaje…
(Bellman, 1978
Sistemas que actuan como humanos
El arte de desarrollar maquinas con capacidad para realizar fnciones que cuando son realizadas por personas requieren inteligencia (Kurzweil, 1990)
Concepto ideal de inteligencia
"Racionalidad"
es racional si hace «lo correcto», en función de
su conocimiento
Sistemas que piensan racionalmente
El estudio de las facultades mentales mediante el uso de modelos computacionales. (Charniak y McDermott, 1985)
Sistemas que actuan racionalmente
La inteligencia computacional es el diseño del estudio de agentes inteligentes (Pole etal, 1998)
Test de Turing
Propuesto por:
Alan Turing en 1950
prueba diseñada para evaluar la capacidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un ser humano
¿Como se lleva a cabo?
Paticipantes
Se necesitan 3
Juez humano
Interactua con
Trata de determinar cual es el humano y cual la maquina
¿Como?
En base a las respuestas a sus preguntas
Maquina
Humano
Condiciones de la prueba
Unicamente a traves de texto
¿Por que?
Evitar que las caracteristicas influyan en la evaluacion
Enfoque solo en la inteligencia y capacidad de respuesta del sistema
Objetivo
Si el juez no encuentra diferencia entre cual es la maquina y cual es el humano, la maquina ha pasado el Test
se diseñó para proporcionar
una definición operacional y satisfactoria de inteligencia
Relacion agente-entorno
¿Que es un agente?
Algo que razona
¿Que es un agente racional?
actúa con la intención de alcanzar el mejor resultado o, cuando hay incertidumbre,
el mejor resultado esperado
la IA desde el enfoque del diseño de un agente racional
ofrece al menos dos ventajas
La primera es más general que el enfoque que proporcionan las «leyes del pensamiento», dado que el efectuar inferencias correctas es sólo uno de los mecanismos existentes para garantizar la racionalidad
La segunda es mas afin a la forma en que se ha producido el avance científico que los enfoques basados en la
conducta o pensamiento humano, porque la norma de la racionalidad está claramente definida y es de aplicación general.
más bien pronto que tarde se observará cómo obtener una racionalidad perfecta (hacer siempre lo correcto) no
es posible en entornos complejos
la inteligencia requiere tanto acción como razonamiento. Más aún, simplemente con comprender cómo se justifican determinadas acciones se puede llegar a saber cómo construir un agente cuyas acciones sean justificables (o racionales).
lo que refleja la tendencia creciente hacia la conceptualización de la IA como diseño de agentes racionales. La idea de un agente como un sistema que percibe su entorno, razona sobre su percepción, y actúa en consecuencia, proporciona un marco unificador para la disciplina.
Historia
1940
Warren McCulloch y Walter Pitts propusieron un modelo de inteligencia artificial basado en neuronas artificiales, tomando inspiración de la fisiología cerebral, la lógica proposicional de Russell y Whitehead, y la teoría de la computación de Turing. Su modelo de neuronas artificiales permitía la simulación de funciones de cómputo y la implementación de conectores lógicos.
1949
Donald Hebb contribuyó con la regla de aprendizaje Hebbiano, que sigue siendo relevante en la actualidad. Dos estudiantes graduados de Princeton, Marvin Minsky y Dean Edmonds, construyeron el primer computador basado en una red neuronal en 1951, llamado SNARC.
1950
Alan Turing articuló una visión más amplia de la inteligencia artificial, introduciendo la prueba de Turing, el aprendizaje automático, los algoritmos genéricos y el aprendizaje por refuerzo.
1956
John McCarthy organizó un taller en Dartmouth, donde se acuñó el término "Inteligencia Artificial". McCarthy, junto con Allen Newell y Herbert Simon, desarrollaron el lenguaje de programación Lisp y trabajaron en el Generador de Consejos, un programa que representaba conocimiento general del mundo.
Los primeros éxitos incluyeron el Sistema de Resolución General de Problemas (SRGP), diseñado para imitar la resolución de problemas humanos, y programas como el Demostrador de Teoremas de Geometría y el juego de damas de Arthur Samuel. McCarthy trasladó el Laboratorio de IA a Stanford en 1963.
1958
Minsky se unió al MIT, donde McCarthy definió Lisp y publicó "Programs with Common Sense". McCarthy también creó el Laboratorio de IA en Stanford y contribuyó al desarrollo de la lógica suficiente para la demostración de teoremas.
En el MIT, se desarrollaron programas que resolvían problemas específicos y se introdujeron los micromundos, como el famoso "mundo de los bloques". La visión y el trabajo de propagación con restricciones, la teoría del aprendizaje y el procesamiento de lenguaje natural también surgieron en este período.
El trabajo con redes neuronales continuó con aportaciones de Winograd, Cowan, Widrow, Rosenblatt, y otros. Rosenblatt demostró el teorema del perceptrón, mostrando que su algoritmo de aprendizaje podría ajustar conexiones para adaptarse a los datos de entrada.
Fundamentos
Psicologia
Inicios de la psicología científica
Se destaca el inicio de la psicología científica con los trabajos de Hermann von Helmholtz y su discípulo Wilhelm Wundt.
Helmholtz aplicó el método científico al estudio de la vista humana, y Wundt abrió el primer laboratorio de psicología experimental en la Universidad de Leipzig en 1879
Se menciona la naturaleza subjetiva de la introspección, utilizada por Wundt en experimentos controlados
Movimiento conductista
Se describe el movimiento conductista liderado por John Watson, que rechazó la introspección y se centró en mediciones objetivas de percepciones y respuestas
Aunque tuvo éxito en estudios con animales
tuvo menos impacto en la comprensión de los seres humanos
Su influencia fue notable desde 1920 hasta 1960 en Estados Unidos.
Cognición frente al conductismo
Se resalta la conceptualización del cerebro como un dispositivo de procesamiento de información, especialmente presente en las obras de William James y Helmholtz
La obra de Kenneth Craik, "The Nature of Explanation," reestablece la legitimidad de términos mentales y establece elementos clave para diseñar un agente basado en conocimiento
Desarrollo del modelo computacional y ciencia cognitiva
George Miller, Noam Chomsky, Allen Newell y Herbert Simon presentaron trabajos influyentes que mostraron cómo los modelos informáticos podían utilizarse para modelar la psicología de la memoria, el lenguaje y el pensamiento lógico
Economia
Orígenes de la ciencia económica
comenzó formalmente en 1776 con la publicación de "An Inquiry into the Nature and Causes of the Wealth of Nations" de Adam Smith
Smith es reconocido por tratar la economía como una ciencia, conceptualizándola como un conjunto de agentes individuales que buscan maximizar su bienestar económico
Desarrollo matemático de la teoría económica
Léon Walras formalizó matemáticamente el concepto de "beneficio deseado" o utilidad, siendo posteriormente mejorado por Frank Ramsey y, más adelante, por John von Neumann y Oskar Morgenstern en su libro "The Theory of Games and Economic Behavior" (1944).
Teoría de la decisión
proporciona un marco formal para la toma de decisiones bajo incertidumbre
Se destaca que esta teoría es adecuada para "grandes" economías donde cada agente no necesita prestar atención a las acciones individuales de los demás
en "pequeñas" economías, la situación se asemeja más a un juego, donde las acciones de un jugador afectan significativamente la utilidad de otro
Contribuciones de la economía y la investigación operativa a la IA
la noción de agente racional presentada en la IA ha sido influenciada en gran medida por el trabajo en economía y la investigación operativa
Herbert Simon, pionero en la IA, ganó el Premio Nobel en Economía en 1978, y se menciona su trabajo sobre modelos basados en la satisfacción que describen mejor el comportamiento humano real
Matematicas
se destaca que la transición a una ciencia formal requiere formulaciones matemáticas en áreas clave como la lógica, la computación y la probabilidad
Desarrollo de la lógica formal
Gottlob Frege extendió la lógica de Boole en 1879 para incluir objetos y relaciones, y Alfred Tarski introdujo una teoría de referencia
se remonta a los filósofos de la antigua Grecia, pero su desarrollo matemático comenzó con George Boole, quien definió la lógica proposicional o Booleana en 1847
Algoritmos y lógica deductiva
el primer algoritmo no trivial es el algoritmo Euclidiano para el cálculo del máximo común divisor
Khowarazmi, Boole y otros, presentaron algoritmos para realizar deducciones lógicas y formalizaron el razonamiento matemático general con la lógica deductiva
Teorema de incompletitud de Gödel
En 1931, Kurt Gödel
demostró su famoso teorema de incompletitud, que establece límites fundamentales en la capacidad de los procedimientos efectivos de demostración
demostró que existen aseveraciones verdaderas no decidibles mediante ningún algoritmo
Noción de computabilidad y tesis de Church-Turing
Alan Turing trató de caracterizar funciones susceptibles de ser calculadas y propuso la tesis de Church-Turing
afirma que la máquina de Turing es capaz de calcular cualquier función computable
Problemas intratables y NP-completitud
el tiempo necesario para resolver casos particulares crece exponencialmente con el tamaño de dichos casos
La teoría de la NP-completitud, propuesta por Cook y Karp, se utiliza para reconocer problemas intratables, y se menciona la importancia de dividir problemas intratables en subproblemas manejables
Filosofia
Desarrollo de leyes que rigen la inteligencia
Aristóteles fue el primero en formular un conjunto preciso de leyes que gobernaban la parte racional de la inteligencia
Desarrolló un sistema informal para razonar con silogismos, permitiendo extraer conclusiones mecánicamente a partir de premisas iniciales.
Avances en la automatización de la computación
contribuciones de figuras históricas como Ramón Lull, Thomas Hobbes, Leonardo da Vinci, Wilhelm Schickard y Blaise Pascal en la automatización de la computación
automatización estaba en marcha y se menciona la Pascalina, una calculadora mecánica construida en 1642
Discusión sobre la mente y la materia
René Descartes proporcionó la primera discusión clara sobre la distinción entre la mente y la materia
Empirismo y la fuente del conocimiento
La doctrina del positivismo lógico, desarrollada por el Círculo de Viena, sostiene que todo el conocimiento se puede caracterizar mediante teorías lógicas relacionadas con sentencias de observación
Teoría de la confirmación de Carnap y Hempel
intenta explicar cómo se obtiene el conocimiento a partir de la experiencia
Se destaca el libro de Carnap, "The Logical Structure of the World" (1928), como posiblemente la primera teoría que muestra la mente como un proceso computacional
Relación entre conocimiento y acción
Aristóteles aborda la relación entre conocimiento y acción, señalando que entender cómo se justifican las acciones puede conducir a construir agentes cuyas acciones sean racionales
Neurociencia
Paul Broca y el descubrimiento de áreas cerebrales
trabajo de Paul Broca en 1861
mostró la existencia de áreas localizadas en el cerebro responsables de funciones cognitivas específicas
Broca identificó el área responsable de la producción del habla, conocida como el área de Broca
Desarrollo de técnicas para estudiar el cerebro
coloración de neuronas por Camillo Golgi y Santiago Ramón y Cajal en el siglo XIX
electroencefalograma (EEG) en 1929
imágenes de resonancia magnética funcional (IRMF) en 1990 como avances para estudiar la actividad cerebral.
Diferencias entre cerebros y computadores
el cerebro, a pesar de ser más lento en intercambio, es significativamente más rápido en sus funciones debido a su procesamiento en paralelo y su estructura única.
Ingenieria computacional
Desarrollo del computador y su papel en la inteligencia artificial
Alan Turing y su equipo construyeron el Heath Robinson en 1940 con el propósito de descifrar mensajes alemanes.
Konrad Zuse en Alemania inventó el Z-3 en 1941, considerado el primer computador programable
John Atanasoff y Clifford Berry crearon el ABC entre 1940 y 1942, y el ENIAC, desarrollado en la Universidad de Pensilvania, se considera el precursor de los computadores modernos
Crecimiento y evolución de la potencia de cómputo
Se menciona la Ley de Moore, que indica que la potencia de los computadores se duplica cada 18 meses aproximadamente.
Antecedentes históricos de dispositivos de cálculo
Se remonta a dispositivos de cálculo anteriores a los computadores electrónicos, como las máquinas automáticas del siglo XVII y el telar programable de Joseph Marie Jacquard en 1805
Se destaca el diseño de Charles Babbage, quien ideó la "Máquina de Diferencias" y la más ambiciosa "Máquina Analítica", considerada el primer artefacto con elementos para realizar una computación universal.
Contribuciones de Ada Lovelace y la deuda con el software
se reconoce como la primera programadora
La inteligencia artificial también debe parte de su desarrollo al software en informática
proporcionó sistemas operativos, lenguajes de programación y herramientas esenciales para escribir programas modernos
Teoria del control y cibernetica
Ktesibios de Alejandría y las primeras máquinas autocontroladas
En el año 250 a.C., Ktesibios construyó el primer artefacto autocontrolado
un reloj de agua con un regulador que mantenía un flujo constante y predecible
Esta invención rompió con la noción de que solo los seres vivos podían modificar su comportamiento en respuesta a cambios en el entorno.
Norbert Wiener y el desarrollo de la teoría de contro
Trabajó en sistemas biológicos y mecánicos
desafiando la ortodoxia conductista al ver el comportamiento como algo emergente de un mecanismo regulador que busca minimizar el "error"
Cybernetics y la influencia en la inteligencia artificial
fue un bestseller y reveló al público las posibilidades de las máquinas con inteligencia artificial
Wiener influyó en muchos investigadores en las ciencias del comportamiento, y sus ideas contribuyeron al surgimiento de la inteligencia artificial.
Relación entre teoría de control y IA
Aunque ambos campos comparten orígenes y algunas similitudes en la optimización de sistemas
la teoría de control se centró en herramientas matemáticas como el cálculo y el álgebra matricial, aplicándolas a sistemas con conjuntos fijos de variables continuas y limitándose a sistemas lineales
la inteligencia artificial surgió en parte para superar estas limitaciones, utilizando herramientas de inferencia lógica y computación para abordar problemas relacionados con el lenguaje, visión y planificación que estaban más allá del enfoque de la teoría de control.
Lingüistica
La lingüística moderna y la inteligencia artificial (IA) evolucionaron conjuntamente, convergiendo en un campo híbrido llamado lingüística computacional o procesamiento del lenguaje natural.
1957
se subestimó la complejidad del entendimiento del lenguaje, se reconocieron sus desafíos en décadas posteriores
A partir de los años 60, se exploraron los vínculos entre la representación del conocimiento y el lenguaje, especialmente en la búsqueda de información
Este período fue crucial para sentar las bases de la lingüística computacional y el procesamiento del lenguaje natural, reconociendo la necesidad de comprender tanto la forma como el significado en el tratamiento computacional del lenguaje.
Se comprendió que el entendimiento del lenguaje no solo implica la estructura de las oraciones, sino también la comprensión del contexto y la materia bajo estudio
Mia Sofia G. Contreras Castillo
2006081
N1 L-M-V
Russell, S. J. (2020). Inteligencia Artificial: un enfoque moderno. Pearson Education, Inc.