Historia de la inteligencia artificial

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La historia de la inteligencia artificial (IA) comenzó en la antigüedad, con mitos, historias y rumores sobre seres artificiales dotados de inteligencia o conciencia por parte de maestros artesanos. Las semillas de la IA moderna fueron plantadas por filósofos que intentaron describir el proceso del pensamiento humano como la manipulación mecánica de símbolos. Este trabajo culminó con la invención de la computadora digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de científicos a comenzar a discutir seriamente la posibilidad de construir un cerebro electrónico.

El campo de la investigación de AI fue fundado en un taller celebrado en el campus de Dartmouth College, EE.UU. durante el verano de 1956. Aquellos que asistieron se convertirían en los líderes de la investigación de AI durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más que una generación, y se les dio millones de dólares para hacer realidad esta visión.

Con el tiempo, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. En 1974, en respuesta a las críticas de James Lighthill y a la presión constante del Congreso, los gobiernos de Estados Unidos y Gran Bretaña dejaron de financiar investigaciones no dirigidas sobre inteligencia artificial, y los difíciles años que siguieron se conocerían más tarde como un "invierno de IA". ;. Siete años más tarde, una iniciativa visionaria del gobierno japonés inspiró a los gobiernos y a la industria a proporcionar a la IA miles de millones de dólares, pero a finales de la década de 1980 los inversores se desilusionaron y volvieron a retirar la financiación.

La inversión y el interés en la IA aumentaron en la década de 2020, cuando el aprendizaje automático se aplicó con éxito a muchos problemas en el mundo académico y la industria gracias a nuevos métodos, la aplicación de potente hardware informático y la recopilación de inmensos conjuntos de datos.

Precursoras

(feminine)

Precursores míticos, ficticios y especulativos

Mito y leyenda

En la mitología griega, Talos era un gigante construido en bronce que actuaba como guardián de la isla de Creta. Lanzaba piedras a los barcos de los invasores y completaba 3 circuitos alrededor del perímetro de la isla diariamente. Según el pseudo-Apolodoro' Bibliotheke, Hefesto forjó Talos con la ayuda de un cíclope y regaló el autómata a Minos. En la Argonáutica, Jasón y los argonautas lo derrotaron mediante un único tapón cerca de su pie que, una vez retirado, permitió que el icor vital fluyera fuera de su cuerpo y lo dejó inanimado.

Pygmalion fue un rey y escultor legendario de la mitología griega, famoso representado en las Metamorfosis de Ovidio. En el décimo libro del poema narrativo de Ovidio, Pigmalión se disgusta con las mujeres cuando presencia la forma en que las Propetides se prostituyen. A pesar de esto, hace ofrendas en el templo de Venus pidiéndole a la diosa que le traiga una mujer igual a una estatua que él talló.

Leyendas medievales de seres artificiales

Depiction of a homunculus from Goethe's Faust

En De la naturaleza de las cosas, escrito por el alquimista suizo Paracelso, describe un procedimiento que, según afirma, puede fabricar un "hombre artificial". Al colocar el "esperma de un hombre" en estiércol de caballo y alimentándolo con el "Arcano de la sangre del hombre" Después de 40 días, el brebaje se convertirá en un bebé vivo.

El relato escrito más antiguo sobre la fabricación de golems se encuentra en los escritos de Eleazar ben Judá de Worms a principios del siglo XIII. Durante la Edad Media, se creía que la animación de un Golem se podía lograr insertando un trozo de papel con cualquiera de los nombres de Dios en la boca de la figura de arcilla. A diferencia de los autómatas legendarios como Brazen Heads, un Golem no podía hablar.

Takwin, la creación artificial de vida, era un tema frecuente en los manuscritos alquímicos ismaelitas, especialmente los atribuidos a Jabir ibn Hayyan. Los alquimistas islámicos intentaron crear una amplia gama de formas de vida a través de su trabajo, desde plantas hasta animales.

En Fausto: La segunda parte de la tragedia de Johann Wolfgang von Goethe, un homúnculo fabricado alquímicamente, destinado a vivir para siempre en el frasco en el que fue creado, se esfuerza por nacer en un cuerpo humano completo. Sin embargo, al iniciarse esta transformación, el matraz se rompe y el homúnculo muere.

Ficción moderna

En el siglo XIX, las ideas sobre hombres artificiales y máquinas pensantes se desarrollaron en la ficción, como en Frankenstein de Mary Shelley o en R.U.R. (Robots universales de Rossum), y la especulación, como "Darwin entre las máquinas" de Samuel Butler, y en casos del mundo real, incluido "El jugador de ajedrez de Maelzel" de Edgar Allan Poe. 34;. La IA es un tema común en la ciencia ficción hasta el presente.

Autómatas

Automata programable de Al-Jazari (1206 CE)

Autómatas humanoides realistas fueron construidos por artesanos de muchas civilizaciones, incluido Yan Shi, Héroe de Alejandría, Al-Jazari, Pierre Jaquet-Droz y Wolfgang von Kempelen.

Los autómatas más antiguos conocidos eran las estatuas sagradas del antiguo Egipto y Grecia. Los fieles creían que el artesano había dotado a estas figuras de mentes muy reales, capaces de sabiduría y emoción: Hermes Trismegisto escribió que "al descubrir la verdadera naturaleza de los dioses, el hombre ha podido reproducirla". El erudito inglés Alexander Neckham afirmó que el poeta romano Virgilio había construido un palacio con estatuas de autómatas.

Durante el período moderno temprano, se decía que estos autómatas legendarios poseían la habilidad mágica de responder las preguntas que se les formulaban. Se decía que el alquimista y protoprotestante de finales de la Edad Media Roger Bacon había fabricado una cabeza de bronce, habiendo desarrollado la leyenda de haber sido un mago. Estas leyendas eran similares al mito nórdico de la Cabeza de Mímir. Según la leyenda, Mímir era conocido por su intelecto y sabiduría, y fue decapitado en la Guerra Æsir-Vanir. Se dice que Odín "embalsamado" la cabeza con hierbas y pronunció encantamientos sobre ella de modo que la cabeza de Mímir seguía siendo capaz de hablarle sabiduría a Odín. Odín luego mantuvo la cabeza cerca de él para pedirle consejo.

Razonamiento formal

La inteligencia artificial se basa en el supuesto de que el proceso del pensamiento humano puede mecanizarse. El estudio del razonamiento mecánico (o "formal") tiene una larga historia. Los filósofos chinos, indios y griegos desarrollaron métodos estructurados de deducción formal en el primer milenio a.C. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (que hizo un análisis formal del silogismo), Euclides (cuyos Elementos fueron un modelo de razonamiento formal), al-Khwārizmī (que desarrolló el álgebra y dio su nombre al "algoritmo") y filósofos escolásticos europeos como Guillermo de Ockham y Duns Escoto.

El filósofo español Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante operaciones lógicas simples, producidas por la máquina mediante significados mecánicos, de tal manera que produjeran todo el conocimiento posible. La obra de Llull tuvo una gran influencia en Gottfried Leibniz, quien reformuló sus ideas.

Gottfried Leibniz, que especulaba que la razón humana podría reducirse al cálculo mecánico

En el siglo XVII, Leibniz, Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera volverse tan sistemático como el álgebra o la geometría. Hobbes escribió en Leviatán: "La razón no es más que ajuste de cuentas". Leibniz imaginó un lenguaje universal de razonamiento, la characteristica universalis, que reduciría la argumentación al cálculo de modo que "no habría más necesidad de disputas entre dos filósofos que entre dos contables". Porque bastaría con tomar los lápices en la mano, bajar a las pizarras y decirse unos a otros (con un amigo como testigo, si quisieran): Calculemos." Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA.

En el siglo XX, el estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Las bases se habían sentado con obras como Las leyes del pensamiento de Boole y Begriffsschrift de Frege. Basándose en el sistema de Frege, Russell y Whitehead presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, los Principia Mathematica en 1913. Inspirados por el éxito de Russell, David Hilbert desafió matemáticos de las décadas de 1920 y 1930 para responder a esta pregunta fundamental: "¿se puede formalizar todo el razonamiento matemático?" Su pregunta fue respondida por la prueba de incompletitud de Gödel, la máquina de Turing y el cálculo Lambda de Church.

Foto del Ejército de los Estados Unidos del ENIAC en la Escuela Moore de Ingeniería Eléctrica

Su respuesta fue sorprendente en dos sentidos. Primero, demostraron que, de hecho, había límites a lo que la lógica matemática podía lograr. Pero en segundo lugar (y más importante para la IA) su trabajo sugirió que, dentro de estos límites, cualquier forma de razonamiento matemático podría mecanizarse. La tesis de Church-Turing implicaba que un dispositivo mecánico que mezclara símbolos tan simples como el 0 y el 1 podría imitar cualquier proceso concebible de deducción matemática. La idea clave fue la máquina de Turing, una construcción teórica simple que capturó la esencia de la manipulación de símbolos abstractos. Este invento inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de máquinas pensantes.

Ciencias de la informática

Las máquinas de cálculo fueron diseñadas o construidas en antigüedad y a lo largo de la historia por muchas personas, incluyendo Gottfried Leibniz, Joseph Marie Jacquard, Charles Babbage, Percy Ludgate, Leonardo Torres Quevedo, Vannevar Bush, y otros. Ada Lovelace especulaba que la máquina de Babbage era "una máquina de pensamiento o... razonamiento", pero advirtió "Es deseable protegerse contra la posibilidad de ideas exageradas que surgen en cuanto a los poderes" de la máquina.

Las primeras computadoras modernas fueron las máquinas masivas de la Segunda Guerra Mundial (como el Z3 de Konrad Zuse, el Heath Robinson de Alan Turing y Colossus, Atanasoff y Berry's y ABC y ENIAC de la Universidad de Pennsylvania). ENIAC se basó en la fundación teórica establecida por Alan Turing y desarrollada por John von Neumann, y demostró ser la más influyente.

Nacimiento de la inteligencia artificial (1941-56)

El IBM 702: un ordenador utilizado por la primera generación de investigadores de AI.

Las primeras investigaciones sobre las máquinas pensantes se inspiraron en una confluencia de ideas que prevaleció a finales de los años 1930, 1940 y principios de los 1950. Investigaciones recientes en neurología habían demostrado que el cerebro era una red eléctrica de neuronas que se disparaban en pulsos de todo o nada. La cibernética de Norbert Wiener describió el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describió las señales digitales (es decir, señales de todo o nada). La teoría de la computación de Alan Turing demostró que cualquier forma de computación podía describirse digitalmente. La estrecha relación entre estas ideas sugirió que podría ser posible construir un "cerebro electrónico".

En las décadas de 1940 y 1950, un puñado de científicos de diversos campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) exploraron varias direcciones de investigación que serían vitales para la investigación posterior de la IA. Alan Turing, quien desarrolló la teoría de la computación, fue uno de los primeros en investigar seriamente la posibilidad teórica de la "inteligencia de las máquinas". El campo de la "investigación en inteligencia artificial" Fue fundada como disciplina académica en 1956.

Prueba de Turing

Alan Turing estaba pensando en la inteligencia artificial al menos ya en 1941, cuando hizo circular un artículo sobre inteligencia artificial que podría ser el primer artículo en el campo de la IA, aunque ahora está perdido. En 1950, Turing publicó un artículo histórico "Computing Machinery and Intelligence", en el que especulaba sobre la posibilidad de crear máquinas que piensen y el artículo presentó al público en general su concepto de lo que ahora se conoce como la prueba de Turing. . Señaló que "pensar" Es difícil de definir e ideó su famoso Test de Turing. Si una máquina podía mantener una conversación (a través de un teleimpresor) que era indistinguible de una conversación con un ser humano, entonces era razonable decir que la máquina estaba "pensando". Esta versión simplificada del problema permitió a Turing argumentar de manera convincente que una "máquina pensante" era al menos plausible y el artículo respondía a todas las objeciones más comunes a la propuesta. El Test de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial. Luego siguieron tres transmisiones de radio sobre IA de Turing, las conferencias: 'Maquinaria inteligente, una teoría herética', '¿Pueden pensar las computadoras digitales?' y la mesa redonda "¿Se puede decir que las máquinas calculadoras automáticas piensan?".

Redes neuronales artificiales

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podrían realizar funciones lógicas simples en 1943. Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal. El artículo fue influenciado por el artículo anterior de Turing 'Sobre números computables' desde 1936 utilizó "neuronas" booleanas de dos estados similares, pero fue el primero en aplicarlo a la función neuronal. Uno de los estudiantes inspirados por Pitts y McCulloch fue un joven Marvin Minsky, entonces un estudiante de posgrado de 24 años. En 1951 (con Dean Edmonds) construyó la primera máquina de red neuronal, la SNARC. (Minsky se convertiría en uno de los líderes e innovadores más importantes en IA).

Robots cibernéticos

En la década de 1950 se construyeron robots experimentales como las tortugas de W. Gray Walter y la Bestia de Johns Hopkins. Estas máquinas no utilizaban computadoras, electrónica digital ni razonamiento simbólico; estaban controlados completamente por circuitos analógicos.

Juego de IA

En 1951, utilizando la máquina Ferranti Mark 1 de la Universidad de Manchester, Christopher Strachey escribió un programa de damas y Dietrich Prinz escribió uno para ajedrez. El programa de damas de Arthur Samuel, tema de su artículo de 1959 "Algunos estudios sobre aprendizaje automático utilizando el juego de damas", finalmente alcanzó la habilidad suficiente para desafiar a un aficionado respetable. La IA de juegos seguiría utilizándose como medida del progreso de la IA a lo largo de su historia.

El razonamiento simbólico y el teórico de la lógica

Cuando el acceso a las computadoras digitales fue posible a mediados de los años cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos y que la manipulación de símbolos bien podría ser la esencia del pensamiento humano. Este fue un nuevo enfoque para la creación de máquinas pensantes.

En 1955, Allen Newell y (futuro premio Nobel) Herbert A. Simon crearon el libro "Teórico de la lógica" (con ayuda de J. C. Shaw). El programa finalmente demostraría 38 de los primeros 52 teoremas de los Principia Mathematica de Russell y Whitehead, y encontraría demostraciones nuevas y más elegantes para algunos. Simon dijo que habían "resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". (Esta fue una de las primeras declaraciones de la posición filosófica que John Searle llamaría más tarde "IA fuerte": que las máquinas pueden contener mentes tal como lo hacen los cuerpos humanos). El paradigma de razonamiento simbólico que introdujeron dominaría la investigación y la financiación de la IA hasta mediados de los años 90, además de inspirar la revolución cognitiva.

Taller de Dartmouth

El taller de Dartmouth de 1956 fue un evento fundamental que marcó el inicio formal de la IA como disciplina académica. Fue organizado por Marvin Minsky, John McCarthy y dos científicos de alto nivel: Claude Shannon y Nathan Rochester de IBM. El objetivo principal de este taller fue profundizar en las posibilidades de crear máquinas capaces de simular la inteligencia humana, marcando el comienzo de una exploración enfocada en el ámbito de la IA; La propuesta para la conferencia decía que tenían la intención de probar la afirmación de que "cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que se puede construir una máquina para simularlo".

El término "Inteligencia Artificial" Fue presentado oficialmente por John McCarthy en el taller. (McCarthy eligió el término "Inteligencia artificial" para evitar asociaciones con la cibernética y la influencia de Norbert Wiener).

Los participantes incluyeron a Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell y Herbert A. Simon, todos los cuales crearían importantes programas durante las primeras décadas de investigación en IA. En el taller, Newell y Simon estrenó el "Teórico de la lógica".

El taller de Dartmouth de 1956 fue el momento en que la IA obtuvo su nombre, su misión, su primer gran éxito y sus actores clave, y es ampliamente considerado el nacimiento de la IA.

Revolución cognitiva

En el otoño de 1956, Newell y Simon también presentaron el Teórico de la Lógica en una reunión del Grupo de Interés Especial en Teoría de la Información en el Instituto Tecnológico de Massachusetts. En la misma reunión, Noam Chomsky habló sobre su gramática generativa y George Miller describió su artículo histórico "El número mágico siete, más o menos dos". Miller escribió: "Salí del simposio con la convicción, más intuitiva que racional, de que la psicología experimental, la lingüística teórica y la simulación por computadora de procesos cognitivos eran piezas de un todo mayor".

Esta reunión fue el comienzo de la "revolución cognitiva" -- un cambio de paradigma interdisciplinario en psicología, filosofía, informática y neurociencia. Inspiró la creación de los subcampos de la inteligencia artificial simbólica, la lingüística generativa, la ciencia cognitiva, la psicología cognitiva, la neurociencia cognitiva y las escuelas filosóficas del computacionalismo y el funcionalismo. Todos estos campos utilizaron herramientas relacionadas para modelar la mente y los resultados descubiertos en un campo fueron relevantes para los demás.

El enfoque cognitivo permitió a los investigadores considerar los "objetos mentales" como pensamientos, planes, metas, hechos o recuerdos, a menudo analizados utilizando símbolos de alto nivel en redes funcionales. Estos objetos habían sido prohibidos por ser "no observables" por paradigmas anteriores como el conductismo. Los objetos mentales simbólicos se convertirían en el principal foco de investigación y financiación de la IA durante las próximas décadas.

Primeros éxitos (1956-1974)

Los programas desarrollados en los años posteriores al Taller de Dartmouth fueron, para la mayoría de la gente, simplemente "sorprendentes": las computadoras resolvían problemas planteados de álgebra, demostraban teoremas de geometría y aprendían a hablar inglés. Pocos en aquel momento habrían creído que una persona tan "inteligente" El comportamiento de las máquinas era posible en absoluto. Los investigadores expresaron un intenso optimismo en privado y en la prensa, prediciendo que se construiría una máquina totalmente inteligente en menos de 20 años. Agencias gubernamentales como DARPA invirtieron dinero en el nuevo campo. A finales de los años cincuenta y principios de los sesenta se crearon laboratorios de inteligencia artificial en varias universidades británicas y estadounidenses.

Enfoques

Hubo muchos programas exitosos y nuevas direcciones a finales de los años 50 y 60. Entre los más influyentes se encuentran estos:

Razonamiento como búsqueda

Muchos de los primeros programas de IA utilizaban el mismo algoritmo básico. Para lograr algún objetivo (como ganar un juego o demostrar un teorema), avanzaban paso a paso hacia él (haciendo un movimiento o una deducción) como si buscaran en un laberinto, retrocediendo cada vez que llegaban a un callejón sin salida. Este paradigma se denominó "razonamiento como búsqueda".

La principal dificultad fue que, para muchos problemas, el número de caminos posibles a través del "laberinto" fue simplemente astronómico (situación conocida como "explosión combinatoria"). Los investigadores reducirían el espacio de búsqueda mediante el uso de heurísticas o "reglas generales" eso eliminaría aquellos caminos que probablemente no llevarían a una solución.

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado "General Problem Solver". Otros "búsqueda" Los programas fueron capaces de realizar tareas impresionantes como la resolución de problemas de geometría y álgebra, como el Probador de teoremas de geometría de Herbert Gelernter (1958) y el Integrador automático simbólico (SAINT), escrito por el alumno de Minsky, James Slagle (1961). . Otros programas buscaban metas y submetas para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento de su robot Shakey.

Redes neuronales

El artículo de McCulloch y Pitts (1944) inspiró enfoques para crear hardware informático que implemente el enfoque de red neuronal para la IA en hardware. El más influyente fue el esfuerzo liderado por Frank Rosenblatt para construir máquinas Perceptrones (1957-1962) de hasta cuatro capas. Fue financiado principalmente por la Oficina de Investigación Naval. Bernard Widrow y su alumno Ted Hoff construyeron ADALINE (1960) y MADALINE (1962), que tenían hasta 1000 pesas ajustables. Un grupo del Instituto de Investigación de Stanford dirigido por Charles A. Rosen y Alfred E. (Ted) Brain construyó dos máquinas de redes neuronales llamadas MINOS I (1960) y II (1963), financiadas principalmente por el Cuerpo de Señales del Ejército de EE. UU. MINOS II tenía 6600 pesos ajustables y estaba controlado con una computadora SDS 910 en una configuración llamada MINOS III (1968), que podía clasificar símbolos en mapas del ejército y reconocer caracteres impresos a mano en hojas de codificación Fortran.

La mayor parte de la investigación sobre redes neuronales durante este período inicial implicó la construcción y el uso de hardware a medida, en lugar de simulación en computadoras digitales. La diversidad de hardware fue particularmente clara en las diferentes tecnologías utilizadas para implementar los pesos ajustables. Las máquinas perceptrones y el SNARC utilizaban potenciómetros movidos por motores eléctricos. ADALINE utilizó memistores ajustados mediante galvanoplastia, aunque también utilizó simulaciones en un IBM 1620. Las máquinas MINOS utilizaron núcleos de ferrita con múltiples orificios que podían bloquearse individualmente, y el grado de bloqueo representaba los pesos.

Aunque había redes neuronales de múltiples capas, la mayoría de las redes neuronales durante este período tenían solo una capa de pesos ajustables. Hubo intentos empíricos de entrenar más de una capa, pero no tuvieron éxito. La retropropagación no se volvió frecuente en el entrenamiento de redes neuronales hasta la década de 1980.

Un ejemplo de una red semántica

Lenguaje natural

Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en lenguajes naturales como el inglés. Uno de los primeros éxitos fue el programa STUDENT de Daniel Bobrow, que podía resolver problemas planteados de álgebra de la escuela secundaria.

Una red semántica representa conceptos (por ejemplo, "casa", "puerta") como nodos y relaciones entre conceptos (por ejemplo, "tiene-a") como vínculos entre los nodos. El primer programa de IA que utilizó una red semántica fue escrito por Ross Quillian y la versión más exitosa (y controvertida) fue la teoría de la dependencia conceptual de Roger Schank.

ELIZA de Joseph Weizenbaum podía llevar a cabo conversaciones que eran tan realistas que los usuarios ocasionalmente se engañaban haciéndoles creer que se estaban comunicando con un ser humano y no con un programa (Ver efecto ELIZA). Pero, en realidad, ELIZA no tenía idea de lo que estaba hablando. Simplemente dio una respuesta predefinida o repitió lo que le dijeron, reformulando su respuesta con algunas reglas gramaticales. ELIZA fue la primera charlatana.

Micro-mundos

A finales de los años 60, Marvin Minsky y Seymour Papert del Laboratorio de IA del MIT propusieron que la investigación de IA se centrara en situaciones artificialmente simples conocidas como micro-mundos. They pointed out that in successful sciences like physical, basic principles were often best understood using simplified models like frictionless planes or completely rigid bodies. Gran parte de la investigación se centró en un "mundo de bloques", que consiste en bloques de colores de varias formas y tamaños montados en una superficie plana.

Este paradigma llevó a un trabajo innovador en visión artificial por parte de Gerald Sussman (quien dirigió el equipo), Adolfo Guzmán, David Waltz (quien inventó la "propagación de restricciones") y, especialmente, Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El mayor logro del programa del micromundo fue el SHRDLU de Terry Winograd. Podría comunicarse con frases ordinarias en inglés, planificar operaciones y ejecutarlas.

Autómatas

En Japón, la Universidad de Waseda inició el proyecto WABOT en 1967 y en 1972 completó el WABOT-1, el primer robot "inteligente" robot humanoide o androide. Su sistema de control de extremidades le permitía caminar con las extremidades inferiores y agarrar y transportar objetos con las manos, utilizando sensores táctiles. Su sistema de visión le permitía medir distancias y direcciones a objetos utilizando receptores externos, ojos y oídos artificiales. Y su sistema de conversación le permitía comunicarse con una persona en japonés, con boca artificial.

Optimismo

La primera generación de investigadores de AI hizo estas predicciones sobre su trabajo:

  • 1958, H. A. Simon y Allen Newell: "dentro de diez años un ordenador digital será el campeón mundial del ajedrez" y "en diez años un ordenador digital descubrirá y probará un nuevo teorema matemático importante".
  • 1965, H. A. Simon: "Las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer."
  • 1967, Marvin Minsky: "En una generación... el problema de crear 'inteligencia artificial' se resolverá sustancialmente".
  • 1970, Marvin Minsky (en Life Magazine): "En tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio".

Financiamiento

En junio de 1963, el MIT recibió una subvención de 2,2 millones de dólares de la recién creada Agencia de Proyectos de Investigación Avanzada (más tarde conocida como DARPA). El dinero se utilizó para financiar el proyecto MAC, que incluía al "AI Group" fundada por Minsky y McCarthy cinco años antes. DARPA siguió aportando tres millones de dólares al año hasta los años 70. DARPA otorgó subvenciones similares al programa de Newell y Simon en CMU y al Proyecto de IA de Stanford (fundado por John McCarthy en 1963). Donald Michie estableció otro importante laboratorio de IA en la Universidad de Edimburgo en 1965. Estas cuatro instituciones seguirían siendo los principales centros de investigación (y financiación) de la IA en el mundo académico durante muchos años.

El dinero fue proffered con pocas cuerdas adjuntas: J. C. R. Licklider, entonces el director de ARPA, creía que su organización debería "fundir gente, no proyectos!" y permitió a los investigadores seguir cualquier dirección que pudiera interesarles. Esto creó un ambiente de freewheeling en el MIT que dio a luz la cultura del hacker, pero este enfoque "manos fuera" no duraría.

Primer invierno AI (1974-1980)

En la década de 1970, la IA fue objeto de críticas y reveses financieros. Los investigadores de IA no habían sabido apreciar la dificultad de los problemas que enfrentaban. Su tremendo optimismo había elevado las expectativas del público a niveles increíblemente altos, y cuando los resultados prometidos no se materializaron, la financiación destinada a la IA casi desapareció. Al mismo tiempo, la exploración de redes neuronales artificiales simples de una sola capa se suspendió casi por completo durante una década, en parte debido al libro de Marvin Minsky que enfatizaba los límites de lo que pueden hacer los perceptrones. A pesar de las dificultades con la percepción pública de la IA a finales de los años 70, se exploraron nuevas ideas en programación lógica, razonamiento de sentido común y muchas otras áreas.

Problemas

A principios de los años setenta, las capacidades de los programas de IA eran limitadas. Incluso los más impresionantes sólo podían manejar versiones triviales de los problemas que se suponía que debían resolver; todos los programas eran, en cierto sentido, "juguetes". Los investigadores de IA habían comenzado a toparse con varios límites fundamentales que no podían superarse en la década de 1970. Aunque algunos de estos límites serían superados en décadas posteriores, otros todavía obstaculizan el campo hasta el día de hoy.

  • Energía informática limitada: No había suficiente velocidad de memoria o procesamiento para lograr algo realmente útil. Por ejemplo, el exitoso trabajo de Ross Quillian en lenguaje natural se demostró con un vocabulario de sólo 20 palabras, porque eso era todo lo que encajaba en la memoria. Hans Moravec argumentó en 1976 que las computadoras seguían siendo millones de veces demasiado débiles para exhibir inteligencia. Sugirió una analogía: la inteligencia artificial requiere energía informática de la misma manera que los aviones requieren caballos de fuerza. Debajo de cierto umbral, es imposible, pero, a medida que aumenta el poder, eventualmente podría ser fácil. Con respecto a la visión de la computadora, Moravec calculó que simplemente equiparar las capacidades de detección de bordes y movimientos de la retina humana en tiempo real requeriría un ordenador de uso general capaz de 109 operaciones/segundo (1000 MIPS). A partir de 2011, las aplicaciones prácticas de visión informática requieren 10.000 a 1.000.000 MIPS. En comparación, el supercomputador más rápido en 1976, Cray-1 (retailing at $5 million to $8 million), era sólo capaz de alrededor de 80 a 130 MIPS, y un ordenador de escritorio típico en el momento alcanzado menos de 1 MIPS.
  • Intractability and the combinatorial explosion. En 1972 Richard Karp (construyendo el teorema de Stephen Cook en 1971) mostró que hay muchos problemas que probablemente sólo pueden resolverse en tiempo exponencial (en el tamaño de las entradas). Encontrar soluciones óptimas a estos problemas requiere cantidades inimaginables de tiempo de computadora excepto cuando los problemas son triviales. Esto casi sin duda significaba que muchas de las soluciones "de juguete" utilizadas por AI probablemente nunca aumentarían en sistemas útiles.
  • Conocimiento de sentido común y razonamiento. Muchas aplicaciones importantes de inteligencia artificial como la visión o el lenguaje natural requieren simplemente enormes cantidades de información sobre el mundo: el programa necesita tener alguna idea de lo que podría estar mirando o de lo que está hablando. Esto requiere que el programa sepa la mayoría de las mismas cosas sobre el mundo que un niño hace. Los investigadores pronto descubrieron que esto era realmente vasto cantidad de información. Nadie en 1970 podría construir una base de datos tan grande y nadie sabía cómo un programa podría aprender tanta información.
  • Paradoja de Moravec: Probar teoremas y resolver problemas de geometría es comparativamente fácil para las computadoras, pero una tarea supuestamente simple como reconocer una cara o cruzar una habitación sin chocar contra nada es extremadamente difícil. Esto ayuda a explicar por qué la investigación sobre la visión y la robótica había hecho tan poco progreso a mediados del decenio de 1970.
  • Problemas de marco y calificación. Investigadores de AI (como John McCarthy) que utilizaron la lógica descubrieron que no podían representar deducciones ordinarias que implicaban planificación o razonamiento predeterminado sin hacer cambios en la estructura de la lógica misma. Desarrollaron nuevas lógicas (como lógicas no monotónicas y lógicas modales) para tratar de resolver los problemas.

Fin de la financiación

Las agencias que financiaron la investigación en IA (como el gobierno británico, DARPA y NRC) se sintieron frustradas por la falta de progreso y finalmente cortaron casi todos los fondos para la investigación no dirigida sobre IA. El patrón comenzó ya en 1966, cuando apareció el informe ALPAC criticando los esfuerzos de traducción automática. Después de gastar 20 millones de dólares, la NRC puso fin a todo apoyo. En 1973, el informe Lighthill sobre el estado de la investigación de la IA en el Reino Unido criticaba el fracaso total de la IA a la hora de alcanzar sus "objetivos grandiosos"; y condujo al desmantelamiento de la investigación de la IA en ese país. (El informe menciona específicamente el problema de la explosión combinatoria como una de las razones de los fallos de la IA). DARPA estaba profundamente decepcionada con los investigadores que trabajaban en el programa de Investigación de Comprensión del Habla en CMU y canceló una subvención anual de tres millones de dólares. En 1974, era difícil encontrar financiación para proyectos de IA.

El fin de la financiación se produjo incluso antes para la investigación de redes neuronales, en parte debido a la falta de resultados y en parte a la competencia de la investigación de IA simbólica. El proyecto MINOS se quedó sin financiación en 1966. Rosenblatt no logró conseguir financiación continua en la década de 1960.

Hans Moravec atribuyó la crisis a las predicciones poco realistas de sus colegas. "Muchos investigadores quedaron atrapados en una red de exageración cada vez mayor." Sin embargo, había otro problema: desde la aprobación de la Enmienda Mansfield en 1969, DARPA había estado bajo una presión cada vez mayor para financiar "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". La financiación para la exploración creativa y libre que se había llevado a cabo en los años 60 no vendría de DARPA. En cambio, el dinero se destinó a proyectos específicos con objetivos claros, como tanques autónomos y sistemas de gestión de batalla.

Críticas de todo el campus

Varios filósofos tenían fuertes objeciones a las afirmaciones de los investigadores de IA. Uno de los primeros fue John Lucas, quien argumentó que el teorema de incompletitud de Gödel demostraba que un sistema formal (como un programa de computadora) nunca podría ver la verdad de ciertas afirmaciones, mientras que un ser humano sí podría. Hubert Dreyfus ridiculizó las promesas incumplidas de la década de 1960 y criticó los supuestos de la IA, argumentando que el razonamiento humano en realidad implicaba muy poco "procesamiento de símbolos"; y una gran cantidad de "saber hacer" encarnado, instintivo e inconsciente. El argumento de la Habitación China de John Searle, presentado en 1980, intentaba demostrar que no se podía decir que un programa "comprendiera" algo. los símbolos que utiliza (una cualidad llamada "intencionalidad"). Si los símbolos no tienen significado para la máquina, argumentó Searle, entonces la máquina no puede describirse como "pensante".

Estas críticas no fueron tomadas en serio por los investigadores de IA, a menudo porque parecían muy fuera de lugar. Problemas como la intratabilidad y el conocimiento de sentido común parecían mucho más inmediatos y serios. No estaba claro cuál era la diferencia entre el "saber hacer" o "intencionalidad" hecho a un programa de computadora real. Minsky dijo de Dreyfus y Searle "no entienden y deberían ser ignorados". A Dreyfus, que enseñaba en el MIT, se le dio la espalda: más tarde dijo que los investigadores de IA "no se atrevían a ser vistos almorzando conmigo". Joseph Weizenbaum, el autor de ELIZA, sintió que sus colegas estaban a la altura. El trato dado a Dreyfus fue poco profesional e infantil. Aunque fue un crítico abierto de la política de Dreyfus; posiciones, "dejó deliberadamente claro que la suya no era la manera de tratar a un ser humano".

Weizenbaum comenzó a tener serias dudas éticas sobre la IA cuando Kenneth Colby escribió un "programa informático que puede llevar a cabo un diálogo psicoterapéutico" basado en ELIZA. A Weizenbaum le molestó que Colby viera un programa sin sentido como una herramienta terapéutica seria. Comenzó una disputa y la situación no mejoró cuando Colby no le dio crédito a Weizenbaum por su contribución al programa. En 1976, Weizenbaum publicó Computer Power and Human Reason, en el que sostenía que el uso indebido de la inteligencia artificial tiene el potencial de devaluar la vida humana.

Los perceptrones y el ataque al conexionismo

Un perceptrón era una forma de red neuronal introducida en 1958 por Frank Rosenblatt, quien había sido compañero de escuela de Marvin Minsky en la Escuela Secundaria de Ciencias del Bronx. Como la mayoría de los investigadores de IA, se mostró optimista sobre su poder y predijo que "el perceptrón eventualmente podrá aprender, tomar decisiones y traducir idiomas". A lo largo de la década de 1960 se llevó a cabo un activo programa de investigación sobre el paradigma, pero se detuvo repentinamente con la publicación del libro de Minsky y Papert de 1969, Perceptrons. Sugirió que había graves limitaciones a lo que podían hacer los perceptrones y que las predicciones de Rosenblatt habían sido tremendamente exageradas. El efecto del libro fue devastador: prácticamente no se financió ninguna investigación sobre conexionismo durante 10 años.

De los principales esfuerzos hacia las redes neuronales, Rosenblatt intentó reunir fondos para construir máquinas perceptrones más grandes, pero murió en un accidente de navegación en 1971. Minsky (de SNARC) se convirtió en un firme objetor de la IA conexionista pura. Widrow (de ADALINE) recurrió al procesamiento adaptativo de señales, utilizando técnicas basadas en el algoritmo LMS. El grupo SRI (de MINOS) recurrió a la IA simbólica y la robótica. Los principales problemas fueron la falta de financiación y la imposibilidad de entrenar redes multicapa (se desconocía la retropropagación). La competencia por la financiación gubernamental terminó con la victoria de los enfoques simbólicos de IA.

Lógica en Stanford, CMU y Edimburgo

La lógica fue introducida en la investigación de la IA ya en 1959, por John McCarthy en su propuesta Advice Taker. En 1963, J. Alan Robinson había descubierto un método sencillo para implementar la deducción en ordenadores, el algoritmo de resolución y unificación. Sin embargo, las implementaciones sencillas, como las que intentaron McCarthy y sus estudiantes a finales de la década de 1960, eran especialmente difíciles: los programas requerían números astronómicos de pasos para demostrar teoremas simples. En la década de 1970, Robert Kowalski desarrolló un enfoque más fructífero de la lógica en la Universidad de Edimburgo, que pronto condujo a la colaboración con los investigadores franceses Alain Colmerauer y Philippe Roussel [fr] quien creó el exitoso lenguaje de programación lógica Prolog. Prolog utiliza un subconjunto de lógica (cláusulas Horn, estrechamente relacionadas con las "reglas" y las "reglas de producción") que permiten un cálculo manejable. Las reglas continuarían siendo influyentes, proporcionando una base para los sistemas expertos de Edward Feigenbaum y el trabajo continuo de Allen Newell y Herbert A. Simon que conduciría a Soar y sus teorías unificadas de la cognición.

Los críticos del enfoque lógico señalaron, como lo había hecho Dreyfus, que los seres humanos rara vez usaban la lógica cuando resolvían problemas. Los experimentos de psicólogos como Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman y otros proporcionaron pruebas de ello. McCarthy respondió que lo que hace la gente es irrelevante. Sostuvo que lo que realmente se necesita son máquinas que puedan resolver problemas, no máquinas que piensen como lo hace la gente.

La "antilógica" acercamiento

Entre los críticos del enfoque de McCarthy se encontraban sus colegas de todo el país en el MIT. Marvin Minsky, Seymour Papert y Roger Schank intentaban resolver problemas como la "comprensión de historias" y "reconocimiento de objetos" eso requería una máquina para pensar como una persona. Para utilizar conceptos ordinarios como "silla" o "restaurante" tuvieron que hacer las mismas suposiciones ilógicas que la gente normalmente hacía. Desafortunadamente, conceptos imprecisos como estos son difíciles de representar en lógica. Gerald Sussman observó que "usar un lenguaje preciso para describir conceptos esencialmente imprecisos no los hace más precisos". Schank describió su estrategia "antilógica" enfoques como "desaliñados", a diferencia del "pulcro" paradigmas utilizados por McCarthy, Kowalski, Feigenbaum, Newell y Simon.

En 1975, en un artículo fundamental, Minsky señaló que muchos de sus colegas investigadores estaban usando el mismo tipo de herramienta: un marco que captura todas nuestras suposiciones de sentido común sobre algo. Por ejemplo, si utilizamos el concepto de pájaro, hay una constelación de hechos que inmediatamente nos vienen a la mente: podríamos suponer que vuela, come gusanos, etc. Sabemos que estos hechos no siempre son ciertos y que las deducciones que utilicen estos hechos no serán "lógicas", pero estos conjuntos estructurados de suposiciones son parte del contexto de todo lo que decimos y pensamos. . A estas estructuras las llamó "marcos". Schank utilizó una versión de fotogramas que llamó "guiones"; Responder con éxito preguntas sobre cuentos en inglés.

La aparición de lógicas no monótonas

Los lógicos aceptaron el desafío. Pat Hayes afirmó que "la mayoría de los 'marcos' es solo una nueva sintaxis para partes de primer orden lógica." Pero señaló que "hay uno o dos detalles aparentemente menores que causan muchos problemas, especialmente los impagos". Mientras tanto, Ray Reiter admitió que "las lógicas convencionales, como las de primer orden", lógica, carecen del poder expresivo para representar adecuadamente el conocimiento requerido para razonar por defecto". Propuso aumentar la lógica de primer orden con un supuesto de mundo cerrado de que una conclusión se cumple (por defecto) si no se puede demostrar su contraria. Mostró cómo tal suposición corresponde a la suposición de sentido común formulada al razonar con marcos. También demostró que tiene su "equivalente procesal" tan negación como fracaso en Prolog.

El supuesto del mundo cerrado, tal como lo formuló Reiter, “no es una noción de primer orden”. (Es una metanoción)." Sin embargo, Keith Clark demostró que la negación como fracaso finito puede entenderse como un razonamiento implícito con definiciones en lógica de primer orden, incluido un supuesto de nombre único de que diferentes términos denotan diferentes individuos.

A finales de los años 1970 y a lo largo de los años 1980, se desarrollaron una variedad de lógicas y extensiones de la lógica de primer orden tanto para la negación como para el fracaso en la programación lógica y para el razonamiento por defecto en general. En conjunto, estas lógicas se conocen como lógicas no monótonas.

Auge (1980-1987)

En la década de 1980, se desarrolló una forma de programa de IA llamado "sistemas expertos" fue adoptado por corporaciones de todo el mundo y el conocimiento se convirtió en el foco de la investigación generalizada sobre IA. En esos mismos años, el gobierno japonés financió agresivamente la IA con su proyecto informático de quinta generación. Otro acontecimiento alentador a principios de la década de 1980 fue el resurgimiento del conexionismo en la obra de John Hopfield y David Rumelhart. Una vez más, la IA había logrado el éxito.

Auge de los sistemas expertos

Un sistema experto es un programa que responde preguntas o resuelve problemas sobre un dominio específico de conocimiento, utilizando reglas lógicas que se derivan del conocimiento de expertos. Los primeros ejemplos fueron desarrollados por Edward Feigenbaum y sus alumnos. Dendral, iniciado en 1965, identificó compuestos a partir de lecturas de espectrómetro. MYCIN, desarrollado en 1972, diagnosticaba enfermedades sanguíneas infecciosas. Demostraron la viabilidad del enfoque.

Los sistemas expertos se restringieron a un pequeño dominio de conocimiento específico (evitando así el problema del conocimiento de sentido común) y su diseño simple hizo que fuera relativamente fácil construir programas y luego modificarlos una vez que estaban implementados. En general, los programas demostraron ser útiles: algo que la IA no había podido lograr hasta ese momento.

En 1980, se completó en CMU un sistema experto llamado XCON para Digital Equipment Corporation. Fue un éxito enorme: en 1986 le estaba ahorrando a la empresa 40 millones de dólares anuales. Empresas de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 estaban gastando más de mil millones de dólares en IA, la mayor parte en IA interna. departamentos. Creció una industria para respaldarlos, incluidas empresas de hardware como Symbolics y Lisp Machines y empresas de software como IntelliCorp y Aion.

Revolución del conocimiento

El poder de los sistemas expertos provino del conocimiento experto que contenían. Formaban parte de una nueva dirección en la investigación de la IA que había ido ganando terreno a lo largo de los años 70. "Los investigadores de IA estaban empezando a sospechar (a regañadientes, porque violaba el canon científico de la parsimonia) que la inteligencia bien podría basarse en la capacidad de utilizar grandes cantidades de conocimiento diverso de diferentes maneras", afirmó. escribe Pamela McCorduck. "[L]a gran lección de la década de 1970 fue que el comportamiento inteligente dependía en gran medida de abordar el conocimiento, a veces un conocimiento bastante detallado, de un dominio en el que se encontraba una tarea determinada". Los sistemas basados en el conocimiento y la ingeniería del conocimiento se convirtieron en un foco importante de la investigación en IA en la década de 1980.

La década de 1980 también vio el nacimiento de Cyc, el primer intento de atacar directamente el problema del conocimiento del sentido común, mediante la creación de una base de datos masiva que contendría todos los hechos mundanos que la persona promedio conoce. Douglas Lenat, quien inició y dirigió el proyecto, argumentó que no hay atajos: la única manera que tienen las máquinas de conocer el significado de los conceptos humanos es enseñándolos, un concepto a la vez, a mano. No se esperaba que el proyecto estuviera terminado hasta dentro de muchas décadas.

Los programas de ajedrez HiTech y Deep Thought derrotaron a los maestros del ajedrez en 1989. Ambos fueron desarrollados por la Universidad Carnegie Mellon; El desarrollo de Deep Thought allanó el camino para Deep Blue.

Devoluciones de dinero: proyecto Quinta Generación

En 1981, el Ministerio japonés de Industria y Comercio Internacional reservó 850 millones de dólares para el proyecto de computadora de quinta generación. Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. Para disgusto de los desaliñados, eligieron Prolog como el lenguaje informático principal para el proyecto.

Otros países respondieron con nuevos programas propios. El Reino Unido inició el proyecto Alvey de £350 millones. Un consorcio de empresas estadounidenses formó la Microelectronics and Computer Technology Corporation (o "MCC") para financiar proyectos a gran escala en inteligencia artificial y tecnología de la información. DARPA también respondió, fundando la Strategic Computing Initiative y triplicando su inversión en IA entre 1984 y 1988.

A Red Hopfield con cuatro nodos

Renacimiento de las redes neuronales

En 1982, el físico John Hopfield pudo demostrar que una forma de red neuronal (ahora llamada "red Hopfield") podía aprender y procesar información, y probablemente converge después de un tiempo suficiente bajo cualquier condición fija. Fue un gran avance, ya que anteriormente se pensaba que las redes no lineales evolucionarían, en general, de forma caótica.

Casi al mismo tiempo, Geoffrey Hinton y David Rumelhart popularizaron un método para entrenar redes neuronales llamado "retropropagación", también conocido como modo inverso de diferenciación automática publicado por Seppo Linnainmaa (1970) y aplicado a redes neuronales. redes de Paul Werbos. Estos dos descubrimientos ayudaron a reactivar la exploración de redes neuronales artificiales.

A partir de la publicación en 1986 de Parallel Distributed Processing, una colección de artículos en dos volúmenes editada por Rumelhart y el psicólogo James McClelland, la investigación de redes neuronales cobró un nuevo impulso y alcanzaría un éxito comercial en los años 1990. aplicado al reconocimiento óptico de caracteres y al reconocimiento de voz.

El desarrollo de la integración a muy gran escala (VLSI) de semiconductores de óxido metálico (MOS), en forma de tecnología MOS complementaria (CMOS), permitió el desarrollo de una tecnología práctica de redes neuronales artificiales en la década de 1980.

Una publicación histórica en este campo fue el libro de 1989 Analog VLSI Implementation of Neural Systems de Carver A. Mead y Mohammed Ismail.

Busto: segundo invierno AI (1987–1993)

La fascinación de la comunidad empresarial con AI aumentó y cayó en los años 80 en el patrón clásico de una burbuja económica. Mientras decenas de empresas fallaron, la percepción era que la tecnología no era viable. Sin embargo, el terreno siguió haciendo avances a pesar de las críticas. Numerosos investigadores, entre ellos los desarrolladores de robótica Rodney Brooks y Hans Moravec, defendieron un enfoque totalmente nuevo de la inteligencia artificial.

Invierno AI

El término "invierno AI" fue acuñado por investigadores que habían sobrevivido a los recortes de financiación de 1974 cuando se preocuparon de que el entusiasmo por los sistemas de expertos se había desvanecido y que la decepción ciertamente seguiría. Sus temores estaban bien fundados: a finales de los años ochenta y principios de los noventa, AI sufrió una serie de reveses financieros.

El primer indicio de un cambio en el clima fue el repentino colapso del mercado de hardware especializado en IA en 1987. Las computadoras de escritorio de Apple e IBM habían ido ganando velocidad y potencia de manera constante y en 1987 se volvieron más poderosas que las más caras Lisp. máquinas fabricadas por Symbolics y otros. Ya no había una buena razón para comprarlos. Toda una industria valorada en 500 millones de dólares fue demolida de la noche a la mañana.

Con el tiempo, los primeros sistemas expertos exitosos, como XCON, resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran "frágiles" (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales), y fueron víctimas de problemas (como el problema de calificación) que habían sido identificados años antes. Los sistemas expertos resultaron útiles, pero sólo en unos pocos contextos especiales.

A finales de la década de 1980, la Iniciativa de Computación Estratégica recortó la financiación para la IA de forma "profunda y brutal". El nuevo liderazgo de DARPA había decidido que la IA no era "la próxima ola"; y dirigió fondos hacia proyectos que parecían tener más probabilidades de producir resultados inmediatos.

En 1991, la impresionante lista de objetivos redactados en 1981 para el Proyecto de Quinta Generación de Japón no se había cumplido. De hecho, algunos de ellos, como "mantener una conversación informal" no se habían cumplido en 2010. Al igual que con otros proyectos de IA, las expectativas eran mucho más altas de lo que era realmente posible.

A finales de 1993, más de 300 empresas de IA habían cerrado, quebrado o habían sido adquiridas, poniendo fin efectivamente a la primera ola comercial de IA. En 1994, HP Newquist afirmó en The Brain Makers que "el futuro inmediato de la inteligencia artificial, en su forma comercial, parece depender en parte del éxito continuo de las redes neuronales". ;

La nueva IA y la razón encarnada

A finales de la década de 1980, varios investigadores abogaron por un enfoque completamente nuevo de la inteligencia artificial, basado en la robótica. Creían que, para mostrar una inteligencia real, una máquina necesita tener un cuerpo: necesita percibir, moverse, sobrevivir y lidiar con el mundo. Argumentaron que estas habilidades sensoriomotoras son esenciales para habilidades de nivel superior como el razonamiento de sentido común y que el razonamiento abstracto era en realidad la habilidad humana menos interesante o importante (ver la paradoja de Moravec). Abogaron por desarrollar la inteligencia "de abajo hacia arriba".

El enfoque revivió ideas de la cibernética y la teoría del control que habían sido impopulares desde los años sesenta. Otro precursor fue David Marr, que había llegado al MIT a finales de los años 1970 con una exitosa formación en neurociencia teórica para dirigir el grupo que estudiaba la visión. Rechazó todos los enfoques simbólicos (tanto la lógica de McCarthy como los marcos de Minsky), argumentando que la IA necesitaba comprender la maquinaria física de la visión de abajo hacia arriba antes de que tuviera lugar cualquier procesamiento simbólico. . (El trabajo de Marr se vería truncado por la leucemia en 1980).

En su artículo de 1990 "Los elefantes no juegan al ajedrez", El investigador en robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios ya que "el mundo es su mejor modelo". Siempre está exactamente actualizado. Siempre tiene todos los detalles que hay que conocer. El truco consiste en sentirlo apropiadamente y con suficiente frecuencia." En las décadas de 1980 y 1990, muchos científicos cognitivos también rechazaron el modelo de procesamiento de símbolos de la mente y argumentaron que el cuerpo era esencial para el razonamiento, una teoría llamada tesis de la mente encarnada.

IA (1993-2011)

El campo de la IA, que ya tiene más de medio siglo de existencia, finalmente logró algunos de sus objetivos más antiguos. Comenzó a utilizarse con éxito en toda la industria tecnológica, aunque algo detrás de escena. Parte del éxito se debió al aumento de la potencia informática y otra parte se logró centrándose en problemas aislados específicos y persiguiéndolos con los más altos estándares de responsabilidad científica. Aún así, la reputación de la IA, al menos en el mundo empresarial, no era tan prístina. Dentro del campo había poco acuerdo sobre las razones por las que la IA no logró cumplir el sueño de una inteligencia a nivel humano que había capturado la imaginación del mundo en la década de 1960. En conjunto, todos estos factores ayudaron a fragmentar la IA en subcampos competitivos centrados en problemas o enfoques particulares, a veces incluso bajo nuevos nombres que disfrazaban el empañado pedigrí de la "inteligencia artificial". La IA fue más cautelosa y más exitosa que nunca.

Hitos y ley de Moore

El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov. La supercomputadora era una versión especializada de un marco producido por IBM y era capaz de procesar el doble de movimientos por segundo que durante el primer partido (que Deep Blue había perdido), supuestamente 200.000.000 de movimientos por segundo.

En 2005, un robot de Stanford ganó el Gran Desafío DARPA conduciendo de forma autónoma durante 131 millas a lo largo de un sendero desértico no ensayado. Dos años más tarde, un equipo de CMU ganó el DARPA Urban Challenge navegando de forma autónoma 55 millas en un entorno urbano respetando los peligros del tráfico y todas las leyes de tránsito. En febrero de 2011, en Jeopardy! En el concurso de exhibición de concursos, el sistema de respuesta a preguntas de IBM, Watson, derrotó a los dos mayores Jeopardy! campeones, Brad Rutter y Ken Jennings, por un margen significativo.

Estos éxitos no se debieron a algún nuevo paradigma revolucionario, sino principalmente a la tediosa aplicación de habilidades de ingeniería y al tremendo aumento de la velocidad y capacidad de las computadoras en los años 90. De hecho, la computadora de Deep Blue era 10 millones de veces más rápida que el Ferranti Mark 1 que Christopher Strachey enseñó a jugar al ajedrez en 1951. Este espectacular aumento se mide mediante la ley de Moore, que predice que la velocidad y la memoria La capacidad de las computadoras se duplica cada dos años, como resultado de que el número de transistores semiconductores de óxido metálico (MOS) se duplica cada dos años. El problema fundamental de la "potencia informática bruta" poco a poco fue superándose.

Agentes inteligentes

Un nuevo paradigma llamado "agentes inteligentes" obtuvo amplia aceptación durante la década de 1990. Aunque investigadores anteriores habían propuesto sistemas modulares de "divide y vencerás" En los enfoques de la IA, el agente inteligente no alcanzó su forma moderna hasta que Judea Pearl, Allen Newell, Leslie P. Kaelbling y otros incorporaron conceptos de la teoría de la decisión y la economía al estudio de la IA. Cuando la definición de agente racional de los economistas se unió a la definición de objeto o módulo de la informática, el paradigma del agente inteligente quedó completo.

Un agente inteligente es un sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de éxito. Según esta definición, los programas simples que resuelven problemas específicos son "agentes inteligentes", al igual que los seres humanos y las organizaciones de seres humanos, como las empresas. El paradigma de los agentes inteligentes define la investigación en IA como "el estudio de agentes inteligentes". Ésta es una generalización de algunas definiciones anteriores de IA: va más allá del estudio de la inteligencia humana; estudia todo tipo de inteligencia.

El paradigma dio a los investigadores licencia para estudiar problemas aislados y encontrar soluciones que fueran a la vez verificables y útiles. Proporcionó un lenguaje común para describir problemas y compartir sus soluciones entre sí y con otros campos que también usaban conceptos de agentes abstractos, como la economía y la teoría del control. Se esperaba que una arquitectura de agentes completa (como la SOAR de Newell) algún día permitiera a los investigadores construir sistemas más versátiles e inteligentes a partir de agentes inteligentes que interactúan.

Razonamiento probabilístico y mayor rigor

Los investigadores de IA comenzaron a desarrollar y utilizar herramientas matemáticas sofisticadas más que nunca en el pasado. Hubo una comprensión generalizada de que muchos de los problemas que la IA necesitaba resolver ya estaban siendo abordados por investigadores en campos como las matemáticas, la ingeniería eléctrica, la economía o la investigación de operaciones. El lenguaje matemático compartido permitió tanto un mayor nivel de colaboración con campos más establecidos y exitosos como el logro de resultados que eran mensurables y demostrables; La IA se había convertido en una tecnología "científica" disciplina.

El influyente libro de Judea Pearl de 1988 incorporó la teoría de la probabilidad y la decisión a la IA. Entre las muchas herramientas nuevas en uso se encuentran las redes bayesianas, los modelos ocultos de Markov, la teoría de la información, el modelado estocástico y la optimización clásica. También se desarrollaron descripciones matemáticas precisas para la "inteligencia computacional" paradigmas como redes neuronales y algoritmos evolutivos.

IA detrás de escena

Los algoritmos desarrollados originalmente por investigadores de IA comenzaron a aparecer como partes de sistemas más grandes. La IA había resuelto muchos problemas muy difíciles y sus soluciones demostraron ser útiles en toda la industria tecnológica, como procesamiento de datos, robótica industrial, logística, reconocimiento de voz, software bancario, diagnostico medico y el motor de búsqueda de Google.

El campo de la IA recibió poco o ningún crédito por estos éxitos en los años 1990 y principios de los 2000. Muchas de las mayores innovaciones de la IA han quedado reducidas a la categoría de un elemento más en el conjunto de herramientas de la informática. Nick Bostrom explica: "Mucha IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y común ya no se llama IA".

Muchos investigadores en IA en la década de 1990 llamaron deliberadamente a su trabajo otros nombres, como informática, sistemas basados en el conocimiento, sistemas cognitivos o inteligencia computacional. Esto puede deberse en parte a que consideraban que su campo era fundamentalmente diferente de la IA, pero también los nuevos nombres ayudan a conseguir financiación. Al menos en el mundo comercial, las promesas fallidas del invierno de la IA continuaron acosando a la investigación de la IA hasta la década de 2000, como informó el New York Times en 2005: "Los científicos informáticos y los ingenieros de software evitaron la término inteligencia artificial por temor a ser vistos como soñadores de ojos desorbitados."

Aprendizaje profundo, big data (2011-2020)

En las primeras décadas del siglo XXI, el acceso a grandes cantidades de datos (conocidos como "big data"), computadoras más baratas y más rápidas y técnicas avanzadas de aprendizaje automático se aplicaron con éxito a muchos problemas en toda la economía. . De hecho, McKinsey Global Institute estimó en su famoso artículo "Big data: La próxima frontera para la innovación, la competencia y la productividad" que "en 2009, casi todos los sectores de la economía estadounidense tenían al menos un promedio de 200 terabytes de datos almacenados".

En 2016, el mercado de productos, hardware y software relacionados con la IA alcanzó más de 8 mil millones de dólares, y el New York Times informó que el interés en la IA había alcanzado un "frenesí". Las aplicaciones del big data comenzaron a llegar también a otros campos, como los modelos de formación en ecología y para diversas aplicaciones en economía. Los avances en el aprendizaje profundo (en particular, las redes neuronales convolucionales profundas y las redes neuronales recurrentes) impulsaron el progreso y la investigación en el procesamiento de imágenes y videos, el análisis de texto e incluso el reconocimiento de voz.

En noviembre de 2023 se celebró en Bletchley Park la primera Cumbre Mundial sobre Seguridad Alimentaria para examinar los riesgos a corto y largo plazo de la IA y la posibilidad de establecer marcos reglamentarios obligatorios y voluntarios. 28 países, incluidos los Estados Unidos, China y la Unión Europea, emitieron una declaración al comienzo de la cumbre, en la que se pedía la cooperación internacional para gestionar los desafíos y riesgos de la inteligencia artificial.

Aprendizaje profundo

El aprendizaje profundo es una rama del aprendizaje automático que modela abstracciones de alto nivel en datos mediante el uso de un gráfico profundo con muchas capas de procesamiento. Según el teorema de aproximación universal, la profundidad no es necesaria para que una red neuronal pueda aproximar funciones continuas arbitrarias. Aun así, hay muchos problemas que son comunes a las redes superficiales (como el sobreajuste) que las redes profundas ayudan a evitar. Como tal, las redes neuronales profundas pueden generar de manera realista modelos mucho más complejos en comparación con sus contrapartes superficiales.

Sin embargo, el aprendizaje profundo tiene sus propios problemas. Un problema común para las redes neuronales recurrentes es el problema del gradiente de fuga, que es donde los gradientes que pasan entre capas se reducen gradualmente y literalmente desaparecen a medida que se redondean a cero. Se han desarrollado muchos métodos para abordar este problema, como las unidades de memoria a corto plazo.

Las arquitecturas de redes neuronales profundas de última generación a veces pueden incluso rivalizar con la precisión humana en campos como la visión por computadora, específicamente en cosas como la base de datos MNIST y el reconocimiento de señales de tráfico.

Los motores de procesamiento de lenguaje impulsados por motores de búsqueda inteligentes pueden vencer fácilmente a los humanos en la respuesta a preguntas de trivia generales (como IBM Watson), y los desarrollos recientes en el aprendizaje profundo han producido resultados sorprendentes al competir con los humanos, en cosas como Go y Doom (que al ser un juego de disparos en primera persona ha generado cierta polémica).

Grandes datos

Big data se refiere a una colección de datos que no pueden capturarse, administrarse ni procesarse mediante herramientas de software convencionales dentro de un período de tiempo determinado. Se trata de una enorme cantidad de capacidades de toma de decisiones, conocimiento y optimización de procesos que requieren nuevos modelos de procesamiento. En la era del Big Data escrita por Victor Meyer Schonberg y Kenneth Cooke, el big data significa que en lugar de un análisis aleatorio (encuesta de muestra), todos los datos se utilizan para el análisis. Las características 5V del big data (propuestas por IBM): Volumen, Velocidad, Variedad, Valor, Veracidad.

La importancia estratégica de la tecnología de big data no es dominar información de datos enormes, sino especializarse en estos datos significativos. En otras palabras, si se compara el big data con una industria, la clave para lograr rentabilidad en esta industria es aumentar la "capacidad de proceso" de los datos y obtener el "valor agregado" de los datos mediante el "procesamiento".

Modelos de lenguajes grandes, era de la IA (2020-presente)

El auge de la IA comenzó con el desarrollo inicial de arquitecturas y algoritmos clave, como la arquitectura transformadora, en 2017, lo que llevó a la ampliación y el desarrollo de grandes modelos de lenguaje que exhiben rasgos de razonamiento, cognición, atención y creatividad similares a los humanos. Se dice que la era de la IA comenzó alrededor de 2022-2023, con el lanzamiento público de modelos de lenguaje a gran escala como ChatGPT.

Modelos de lenguaje grandes

En 2017, los investigadores de Google propusieron la arquitectura del transformador. Explota un mecanismo de atención y luego se utilizó ampliamente en grandes modelos de lenguaje.

En 2018, comenzaron a desarrollarse modelos básicos, que son grandes modelos de lenguaje entrenados con grandes cantidades de datos sin etiquetar que pueden adaptarse a una amplia gama de tareas posteriores.

Modelos como GPT-3 lanzado por OpenAI en 2020 y Gato lanzado por DeepMind en 2022 se han descrito como logros importantes del aprendizaje automático.

En 2023, Microsoft Research probó el modelo de lenguaje grande GPT-4 con una gran variedad de tareas y concluyó que "podría considerarse razonablemente como una versión temprana (aún incompleta) de una inteligencia artificial general ( AGI) sistema".

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save