Historia de la inteligencia artificial (IA)

Compartir Imprimir Citar

La historia de la inteligencia artificial (IA) comenzó en la antigüedad, con mitos, historias y rumores de seres artificiales dotados de inteligencia o conciencia por maestros artesanos. Las semillas de la IA moderna fueron plantadas por filósofos clásicos que intentaron describir el proceso del pensamiento humano como la manipulación mecánica de símbolos. Este trabajo culminó con la invención de la computadora digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de científicos a comenzar a discutir seriamente la posibilidad de construir un cerebro electrónico.

El campo de la investigación en IA se fundó en un taller realizado en el campus de Dartmouth College, EE. UU. durante el verano de 1956. Los asistentes se convertirían en los líderes de la investigación en IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación, y les dieron millones de dólares para hacer realidad esta visión.

Eventualmente, se hizo evidente que los desarrolladores e investigadores comerciales habían subestimado enormemente la dificultad del proyecto. En 1974, en respuesta a las críticas de James Lighthill y la presión constante del Congreso, los gobiernos de EE. UU. y Gran Bretaña dejaron de financiar investigaciones no dirigidas sobre inteligencia artificial, y los años difíciles que siguieron se conocerían más tarde como un "invierno de IA". Siete años después, una iniciativa visionaria del gobierno japonés inspiró a los gobiernos y la industria a proporcionar a la IA miles de millones de dólares, pero a finales de los años 80 los inversores se desilusionaron y retiraron los fondos nuevamente.

La inversión y el interés en la IA se dispararon en las primeras décadas del siglo XXI, cuando el aprendizaje automático se aplicó con éxito a muchos problemas en el mundo académico y la industria debido a nuevos métodos, la aplicación de hardware informático potente y la recopilación de inmensos conjuntos de datos.

Precursores

Precursores míticos, ficticios y especulativos

Mito y leyenda

En la mitología griega, Talos era un gigante construido en bronce que actuaba como guardián de la isla de Creta. Arrojaría rocas a los barcos de los invasores y completaría 3 circuitos alrededor del perímetro de la isla diariamente. Según la Bibliotheke de pseudo-Apolodoro, Hefesto forjó a Talos con la ayuda de un cíclope y le regaló el autómata a Minos. En el Argonautica, Jason y los Argonautas lo derrotaron por medio de un solo tapón cerca de su pie que, una vez retirado, permitió que el icor vital fluyera de su cuerpo y lo dejó inanimado.

Pigmalión fue un rey legendario y escultor de la mitología griega, famoso representado en las Metamorfosis de Ovidio. En el décimo libro del poema narrativo de Ovidio, Pigmalión se disgusta con las mujeres al presenciar la prostitución de las Propétides. A pesar de esto, hace ofrendas en el templo de Venus pidiéndole a la diosa que le traiga una mujer como una estatua que talló. El relato escrito más antiguo sobre la creación de golems se encuentra en los escritos de Eleazar ben Judah de Worms alrededor del siglo XII-XIII. Durante la Edad Media, se creía que la animación de un Golem se podía lograr mediante la inserción de una hoja de papel con cualquiera de los nombres de Dios en él, en la boca de la figura de arcilla. A diferencia de los autómatas legendarios como Brazen Heads,un Golem no podía hablar.

Medios alquímicos de la inteligencia artificial.

En De la naturaleza de las cosas, escrito por el alquimista nacido en Suiza, Paracelso, describe un procedimiento que, según él, puede fabricar un "hombre artificial". Al colocar el "esperma de un hombre" en estiércol de caballo y alimentarlo con el "Arcanum of Mans blood" después de 40 días, el brebaje se convertirá en un bebé vivo. Precediendo a Paracelso fue la versión de Jābir ibn Hayyān del homúnculo: Takwin In Faust, The Second Part of the Tragedy de Johann Wolfgang von Goethe, un Homúnculo fabricado alquímicamente, destinado a vivir para siempre en el frasco en el que fue creado, se esfuerza por nacer en un cuerpo humano completo. Sin embargo, al iniciarse esta transformación, el frasco se rompe y el Homúnculo muere.

Ficción moderna

En el siglo XIX, las ideas sobre hombres artificiales y máquinas pensantes se desarrollaron en la ficción, como en Frankenstein de Mary Shelley o RUR (Robots universales de Rossum) de Karel Čapek, y en la especulación, como "Darwin entre las máquinas" de Samuel Butler, y en el mundo real. instancias, incluyendo "El jugador de ajedrez de Maelzel" de Edgar Allan Poe. La IA se ha convertido en un tema habitual de la ciencia ficción hasta el presente.

Autómatas

Los autómatas humanoides realistas fueron construidos por artesanos de todas las civilizaciones, incluidos Yan Shi, Héroe de Alejandría, Al-Jazari, Pierre Jaquet-Droz y Wolfgang von Kempelen. Los autómatas más antiguos que se conocen fueron las estatuas sagradas del antiguo Egipto y Grecia. Los fieles creían que el artesano había imbuido estas figuras con mentes muy reales, capaces de sabiduría y emoción: Hermes Trismegistus escribió que "al descubrir la verdadera naturaleza de los dioses, el hombre ha podido reproducirla".

Durante el período moderno temprano, se decía que estos autómatas legendarios poseían la habilidad mágica de responder a las preguntas que se les hacían. Se suponía que el alquimista y erudito medieval tardío Roger Bacon fabricó una cabeza de bronce, habiendo desarrollado una leyenda de haber sido un mago. Estas leyendas eran similares al mito nórdico de la Cabeza de Mímir. Según la leyenda, Mímir era conocido por su intelecto y sabiduría, y fue decapitado en la Guerra Æsir-Vanir. Se dice que Odin "embalsamó" la cabeza con hierbas y pronunció encantamientos sobre ella de tal manera que la cabeza de Mímir permaneció capaz de hablar sabiduría a Odin. Odín luego mantuvo la cabeza cerca de él en busca de consejo.

Razonamiento formal

La inteligencia artificial se basa en la suposición de que el proceso del pensamiento humano se puede mecanizar. El estudio del razonamiento mecánico, o "formal", tiene una larga historia. Los filósofos chinos, indios y griegos desarrollaron métodos estructurados de deducción formal en el primer milenio a. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (quien dio un análisis formal del silogismo), Euclides (cuyos Elementos fueron un modelo de razonamiento formal), al-Khwārizmī (quien desarrolló el álgebra y dio su nombre a "algoritmo") y filósofos escolásticos europeos como William of Ockham y Duns Scotus.

El filósofo español Ramón Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante simples operaciones lógicas, producidas por la máquina mediante significados mecánicos, de manera que se produjera todo el conocimiento posible. La obra de Llull tuvo una gran influencia en Gottfried Leibniz, quien reelaboró ​​sus ideas.

En el siglo XVII, Leibniz, Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera hacerse tan sistemático como el álgebra o la geometría. Hobbes escribió en Leviatán: "la razón no es más que un ajuste de cuentas". Leibniz imaginó un lenguaje universal de razonamiento, la charactera universalis, que reduciría la argumentación al cálculo de modo que "no habría más necesidad de disputa entre dos filósofos que entre dos contables. Bastaría con tomar sus lápices en la mano, hasta sus pizarras, y decirse unos a otros (con un amigo de testigo, si gustaran): Calculemos ”.Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA.

En el siglo XX, el estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Los cimientos habían sido establecidos por obras tales como Las leyes del pensamiento de Boole y Begriffsschrift de Frege. Sobre la base del sistema de Frege, Russell y Whitehead presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, Principia Mathematica en 1913. Inspirado por el éxito de Russell, David Hilbert desafió a los matemáticos de las décadas de 1920 y 1930 a responder esta pregunta fundamental: "¿Pueden todos formalizar el razonamiento matemático?" Su pregunta fue respondida por la prueba de incompletitud de Gödel, la máquina de Turing y el cálculo Lambda de Church.

Su respuesta fue sorprendente de dos maneras. Primero, probaron que, de hecho, había límites a lo que la lógica matemática podía lograr. Pero en segundo lugar (y más importante para la IA), su trabajo sugirió que, dentro de estos límites, cualquier forma de razonamiento matemático podría mecanizarse. La tesis de Church-Turing implicaba que un dispositivo mecánico, mezclando símbolos tan simples como el 0 y el 1, podía imitar cualquier proceso concebible de deducción matemática. La idea clave fue la máquina de Turing, una construcción teórica simple que capturó la esencia de la manipulación de símbolos abstractos. Este invento inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de máquinas pensantes.

Ciencias de la Computación

Las máquinas calculadoras fueron construidas en la antigüedad y mejoradas a lo largo de la historia por muchos matemáticos, incluido (una vez más) el filósofo Gottfried Leibniz. A principios del siglo XIX, Charles Babbage diseñó una computadora programable (la máquina analítica), aunque nunca llegó a construirse. Ada Lovelace especuló que la máquina "podría componer piezas musicales elaboradas y científicas de cualquier grado de complejidad o extensión". (A menudo se le acredita como la primera programadora debido a un conjunto de notas que escribió que detallan completamente un método para calcular los números de Bernoulli con el motor).

Después de Babbage, aunque al principio desconocía su trabajo anterior, estaba Percy Ludgate, empleado de un comerciante de maíz en Dublín, Irlanda. Diseñó de forma independiente una computadora mecánica programable, que describió en un trabajo que se publicó en 1909.

Otros dos inventores, Leonardo Torres y Quevedo y Vannevar Bush, también siguieron investigaciones basadas en el trabajo de Babbage.

En sus Ensayos sobre automática (1913), Torres y Quevedo diseñó una máquina calculadora tipo Babbage que usaba partes electromecánicas que incluían representaciones de números de punto flotante y construyó un prototipo en 1920. Torres y Quevedo también es conocido por haber construido en 1912 una máquina autónoma capaz de jugar al ajedrez, El Ajedrecista. A diferencia de The Turk y Ajeeb, operados por humanos, El Ajedrecista (The Chessplayer) era un verdadero autómata que podía jugar al ajedrez sin la guía humana. Solo jugaba un final con tres piezas de ajedrez, moviendo automáticamente un rey blanco y una torre para dar jaque mate al rey negro movido por un oponente humano.

El artículo de Vannevar Bush Instrumental Analysis (1936) discutió el uso de máquinas de tarjetas perforadas IBM existentes para implementar el diseño de Babbage. En el mismo año, inició el proyecto Rapid Arithmetical Machine para investigar los problemas de construcción de una computadora digital electrónica.

Las primeras computadoras modernas fueron las máquinas descifradoras de códigos masivas de la Segunda Guerra Mundial (como Z3, ENIAC y Colossus). Las dos últimas de estas máquinas se basaron en la base teórica establecida por Alan Turing y desarrollada por John von Neumann.

El nacimiento de la inteligencia artificial 1952-1956

En las décadas de 1940 y 1950, un puñado de científicos de diversos campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) comenzaron a discutir la posibilidad de crear un cerebro artificial. El campo de la investigación en inteligencia artificial se fundó como disciplina académica en 1956.

Cibernética y primeras redes neuronales

Las primeras investigaciones sobre las máquinas pensantes se inspiraron en una confluencia de ideas que prevalecieron a finales de los años treinta, cuarenta y principios de los cincuenta. Investigaciones recientes en neurología habían demostrado que el cerebro era una red eléctrica de neuronas que disparaban pulsos de todo o nada. La cibernética de Norbert Wiener describió el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describía las señales digitales (es decir, señales de todo o nada). La teoría de la computación de Alan Turing demostró que cualquier forma de computación podía describirse digitalmente. La estrecha relación entre estas ideas sugirió que podría ser posible construir un cerebro electrónico.

Los ejemplos de trabajo en este sentido incluyen robots como las tortugas de W. Gray Walter y Johns Hopkins Beast. Estas máquinas no usaban computadoras, electrónica digital o razonamiento simbólico; estaban controlados completamente por circuitos analógicos.

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podrían realizar funciones lógicas simples en 1943. Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal. Uno de los estudiantes inspirados por Pitts y McCulloch fue un joven Marvin Minsky, entonces estudiante de posgrado de 24 años. En 1951 (con Dean Edmonds) construyó la primera máquina de redes neuronales, la SNARC. Minsky se convertiría en uno de los líderes e innovadores más importantes en IA durante los próximos 50 años.

Prueba de turing

En 1950, Alan Turing publicó un artículo histórico en el que especulaba sobre la posibilidad de crear máquinas que pensaran. Señaló que "pensar" es difícil de definir e ideó su famosa prueba de Turing. Si una máquina podía mantener una conversación (a través de un teleimpresor) que no se podía distinguir de una conversación con un ser humano, entonces era razonable decir que la máquina estaba "pensando". Esta versión simplificada del problema permitió a Turing argumentar de manera convincente que una "máquina pensante" era al menos plausible y el artículo respondió a todas las objeciones más comunes a la proposición. El Test de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial.

IA del juego

En 1951, usando la máquina Ferranti Mark 1 de la Universidad de Manchester, Christopher Strachey escribió un programa de damas y Dietrich Prinz escribió uno para ajedrez. El programa de damas de Arthur Samuel, desarrollado a mediados de los años 50 y principios de los 60, finalmente logró la habilidad suficiente para desafiar a un aficionado respetable. La IA del juego se seguiría utilizando como medida del progreso de la IA a lo largo de su historia.

El razonamiento simbólico y el teórico lógico

Cuando se hizo posible el acceso a las computadoras digitales a mediados de los años cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos y que la manipulación de símbolos bien podía ser la esencia del pensamiento humano. Este fue un nuevo enfoque para crear máquinas pensantes.

En 1955, Allen Newell y (futuro premio Nobel) Herbert A. Simon crearon el "teórico lógico" (con la ayuda de JC Shaw). El programa eventualmente probaría 38 de los primeros 52 teoremas en Principia Mathematica de Russell y Whitehead, y encontraría pruebas nuevas y más elegantes para algunos. Simon dijo que habían "resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". (Esta fue una declaración temprana de la posición filosófica que John Searle llamaría más tarde "IA fuerte": que las máquinas pueden contener mentes tal como lo hacen los cuerpos humanos).

Taller de Dartmouth 1956: el nacimiento de la IA

El Taller de Dartmouth de 1956 fue organizado por Marvin Minsky, John McCarthy y dos científicos senior: Claude Shannon y Nathan Rochester de IBM. La propuesta para la conferencia incluía esta afirmación: "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". Los participantes incluyeron a Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell y Herbert A. Simon, todos los cuales crearían programas importantes durante las primeras décadas de investigación en IA. En la conferencia, Newell y Simon presentaron el "teórico lógico" y McCarthy persuadió a los asistentes para que aceptaran "inteligencia artificial" como el nombre del campo. La conferencia de Dartmouth de 1956 fue el momento en que la IA obtuvo su nombre, su misión, su primer éxito y sus principales actores, y se considera ampliamente como el nacimiento de la IA. McCarthy eligió el término "Inteligencia artificial" para evitar asociaciones con la cibernética y conexiones con el influyente cibernético Norbert Wiener.

IA simbólica 1956-1974

Los programas desarrollados en los años posteriores al Taller de Dartmouth fueron, para la mayoría de las personas, simplemente "asombrosos": las computadoras resolvían problemas de álgebra, demostraban teoremas en geometría y aprendían a hablar inglés. Pocos en ese momento habrían creído que tal comportamiento "inteligente" por parte de las máquinas fuera posible. Los investigadores expresaron un intenso optimismo en privado y en forma impresa, prediciendo que se construiría una máquina completamente inteligente en menos de 20 años. Las agencias gubernamentales como DARPA invirtieron dinero en el nuevo campo.

Enfoques

Hubo muchos programas exitosos y nuevas direcciones a finales de los años 50 y 1960. Entre los más influyentes estaban estos:

Razonamiento como búsqueda

Muchos de los primeros programas de IA usaban el mismo algoritmo básico. Para lograr algún objetivo (como ganar un juego o probar un teorema), avanzaban paso a paso hacia él (haciendo un movimiento o una deducción) como si buscaran en un laberinto, retrocediendo cada vez que llegaban a un callejón sin salida. Este paradigma se denominó "razonamiento como búsqueda".

La principal dificultad era que, para muchos problemas, el número de caminos posibles a través del "laberinto" era simplemente astronómico (situación conocida como "explosión combinatoria"). Los investigadores reducirían el espacio de búsqueda mediante el uso de heurísticas o "reglas generales" que eliminarían aquellas rutas que probablemente no conducirían a una solución.

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado "General Problem Solver". Otros programas de "búsqueda" pudieron realizar tareas impresionantes como resolver problemas de geometría y álgebra, como Geometry Theorem Prover (1958) de Herbert Gelernter y SAINT, escrito por el alumno de Minsky, James Slagle (1961). Otros programas buscaban a través de objetivos y subobjetivos para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento de su robot Shakey.

Lenguaje natural

Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en lenguajes naturales como el inglés. Uno de los primeros éxitos fue el programa ESTUDIANTE de Daniel Bobrow, que podía resolver problemas verbales de álgebra de la escuela secundaria.

Una red semántica representa conceptos (p. ej., "casa","puerta") como nodos y relaciones entre conceptos (p. ej., "tiene-a") como enlaces entre los nodos. El primer programa de IA que usó una red semántica fue escrito por Ross Quillian y la versión más exitosa (y controvertida) fue la teoría de la dependencia conceptual de Roger Schank.

ELIZA de Joseph Weizenbaum podía llevar a cabo conversaciones que eran tan realistas que los usuarios ocasionalmente se engañaban haciéndoles creer que se estaban comunicando con un ser humano y no con un programa (Ver efecto ELIZA). Pero en realidad, ELIZA no tenía idea de lo que estaba hablando. Simplemente dio una respuesta enlatada o repitió lo que se le dijo, reformulando su respuesta con algunas reglas gramaticales. ELIZA fue la primera chatterbot.

Micro-mundos

A finales de los años 60, Marvin Minsky y Seymour Papert del Laboratorio de IA del MIT propusieron que la investigación de la IA debería centrarse en situaciones artificialmente simples conocidas como micromundos. Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se entendían mejor usando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un "mundo de bloques", que consiste en bloques de colores de varias formas y tamaños dispuestos en una superficie plana.

Este paradigma condujo al trabajo innovador en visión artificial de Gerald Sussman (quien dirigió el equipo), Adolfo Guzmán, David Waltz (quien inventó la "propagación de restricciones") y, especialmente, Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El logro supremo del programa micro-mundo fue SHRDLU de Terry Winograd. Podía comunicarse en oraciones ordinarias en inglés, planificar operaciones y ejecutarlas.

Autómatas

En Japón, la Universidad de Waseda inició el proyecto WABOT en 1967, y en 1972 completó el WABOT-1, el primer robot humanoide o android "inteligente" a gran escala del mundo. Su sistema de control de extremidades le permitía caminar con las extremidades inferiores y agarrar y transportar objetos con las manos, utilizando sensores táctiles. Su sistema de visión le permitía medir distancias y direcciones a objetos utilizando receptores externos, ojos y oídos artificiales. Y su sistema de conversación le permitía comunicarse con una persona en japonés, con una boca artificial.

Optimismo

La primera generación de investigadores de IA hizo estas predicciones sobre su trabajo:

Financiación

En junio de 1963, el MIT recibió una subvención de 2,2 millones de dólares de la recién creada Agencia de Proyectos de Investigación Avanzada (más tarde conocida como DARPA). El dinero se utilizó para financiar el proyecto MAC que incluía al "Grupo AI" fundado por Minsky y McCarthy cinco años antes. DARPA siguió aportando tres millones de dólares al año hasta los años 70. DARPA otorgó subvenciones similares al programa de Newell y Simon en CMU y al Proyecto AI de Stanford (fundado por John McCarthy en 1963). Donald Michie estableció otro importante laboratorio de IA en la Universidad de Edimburgo en 1965. Estas cuatro instituciones continuarían siendo los principales centros de investigación (y financiación) de IA en el mundo académico durante muchos años.

El dinero se ofreció con pocas condiciones: JCR Licklider, entonces director de ARPA, creía que su organización debería "financiar personas, no proyectos". y permitió a los investigadores seguir cualquier dirección que pudiera interesarles. Esto creó una atmósfera despreocupada en el MIT que dio origen a la cultura hacker, pero este enfoque de "no intervenir" no duraría.

El primer invierno de IA 1974-1980

En la década de 1970, la IA estuvo sujeta a críticas y reveses financieros. Los investigadores de IA no supieron apreciar la dificultad de los problemas a los que se enfrentaban. Su tremendo optimismo había elevado las expectativas hasta niveles imposibles, y cuando los resultados prometidos no se materializaron, la financiación de la IA desapareció. Al mismo tiempo, el campo del conexionismo (o redes neuronales) fue cerrado casi por completo durante 10 años por la devastadora crítica de Marvin Minsky a los perceptrones. A pesar de las dificultades con la percepción pública de la IA a finales de los 70, se exploraron nuevas ideas en programación lógica, razonamiento de sentido común y muchas otras áreas.

Los problemas

A principios de los setenta, las capacidades de los programas de IA eran limitadas. Incluso los más impresionantes solo podían manejar versiones triviales de los problemas que se suponía que debían resolver; todos los programas eran, en cierto sentido, "juguetes". Los investigadores de IA habían comenzado a toparse con varios límites fundamentales que no podían superarse en la década de 1970. Aunque algunos de estos límites serían conquistados en décadas posteriores, otros aún bloquean el campo hasta el día de hoy.

El fin de la financiación

Las agencias que financiaron la investigación de la IA (como el gobierno británico, DARPA y NRC) se sintieron frustradas por la falta de progreso y finalmente cortaron casi todos los fondos para la investigación no dirigida sobre la IA. El patrón comenzó ya en 1966 cuando apareció el informe ALPAC criticando los esfuerzos de traducción automática. Después de gastar 20 millones de dólares, la NRC terminó con todo apoyo. En 1973, el informe Lighthill sobre el estado de la investigación de IA en Inglaterra criticó el fracaso total de la IA para lograr sus "grandes objetivos" y condujo al desmantelamiento de la investigación de IA en ese país. (El informe menciona específicamente el problema de la explosión combinatoria como una de las razones de las fallas de la IA). DARPA estaba profundamente decepcionado con los investigadores que trabajaban en el programa Speech Understanding Research en CMU y canceló una subvención anual de tres millones de dólares. En 1974, era difícil encontrar financiación para proyectos de IA.

Hans Moravec culpó de la crisis a las predicciones poco realistas de sus colegas. "Muchos investigadores quedaron atrapados en una red de exageraciones cada vez mayores". Sin embargo, había otro problema: desde la aprobación de la Enmienda Mansfield en 1969, DARPA había estado bajo una presión cada vez mayor para financiar "investigación directa orientada a la misión, en lugar de investigación básica no dirigida". La financiación para la exploración creativa y libre que se había llevado a cabo en los años 60 no vendría de DARPA. En cambio, el dinero se dirigió a proyectos específicos con objetivos claros, como tanques autónomos y sistemas de gestión de batalla.

Críticas de todo el campus

Varios filósofos tenían fuertes objeciones a las afirmaciones de los investigadores de IA. Uno de los primeros fue John Lucas, quien argumentó que el teorema de incompletitud de Gödel mostraba que un sistema formal (como un programa de computadora) nunca podría ver la verdad de ciertas declaraciones, mientras que un ser humano sí. Hubert Dreyfus ridiculizó las promesas incumplidas de la década de 1960 y criticó las suposiciones de la IA, argumentando que el razonamiento humano en realidad implicaba muy poco "procesamiento de símbolos" y una gran cantidad de "saber cómo" encarnado, instintivo e inconsciente.El argumento de la habitación china de John Searle, presentado en 1980, intentó demostrar que no se puede decir que un programa "entienda" los símbolos que utiliza (una cualidad llamada "intencionalidad"). Si los símbolos no tienen significado para la máquina, argumentó Searle, entonces la máquina no puede describirse como "pensante".

Estas críticas no fueron tomadas en serio por los investigadores de IA, a menudo porque parecían estar muy fuera de lugar. Problemas como la intratabilidad y el conocimiento del sentido común parecían mucho más inmediatos y serios. No estaba claro qué diferencia hacía el "saber cómo" o la "intencionalidad" en un programa informático real. Minsky dijo de Dreyfus y Searle que "no entienden y deben ser ignorados". A Dreyfus, que enseñó en el MIT, se le dio la espalda: más tarde dijo que los investigadores de IA "no se atrevían a ser vistos almorzando conmigo". Joseph Weizenbaum, el autor de ELIZA, sintió que el trato de sus colegas a Dreyfus era poco profesional e infantil. Aunque fue un crítico abierto de las posiciones de Dreyfus, "dejó en claro deliberadamente que la suya no era la manera de tratar a un ser humano.

Weizenbaum comenzó a tener serias dudas éticas sobre la IA cuando Kenneth Colby escribió un "programa de computadora que puede realizar un diálogo psicoterapéutico" basado en ELIZA. A Weizenbaum le molestó que Colby viera un programa sin sentido como una herramienta terapéutica seria. Comenzó una disputa y la situación no mejoró cuando Colby no le dio crédito a Weizenbaum por su contribución al programa. En 1976, Weizenbaum publicó Computer Power and Human Reason, que argumentaba que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana.

Los perceptrones y el ataque al conexionismo

Un perceptrón era una forma de red neuronal introducida en 1958 por Frank Rosenblatt, quien había sido compañero de clase de Marvin Minsky en la Escuela Secundaria de Ciencias del Bronx. Como la mayoría de los investigadores de IA, se mostró optimista acerca de su poder y predijo que "el perceptrón eventualmente podrá aprender, tomar decisiones y traducir idiomas". Se llevó a cabo un programa de investigación activo sobre el paradigma a lo largo de la década de 1960, pero se detuvo repentinamente con la publicación del libro Perceptrons de Minsky y Papert en 1969.. Sugirió que había severas limitaciones en lo que podían hacer los perceptrones y que las predicciones de Frank Rosenblatt habían sido extremadamente exageradas. El efecto del libro fue devastador: prácticamente no se realizó ninguna investigación sobre el conexionismo durante 10 años. Eventualmente, una nueva generación de investigadores reviviría el campo y, a partir de entonces, se convertiría en una parte vital y útil de la inteligencia artificial. Rosenblatt no viviría para ver esto, ya que murió en un accidente de navegación poco después de la publicación del libro.

Razonamiento lógico y simbólico: los "limpios"

La lógica se introdujo en la investigación de la IA ya en 1959, por John McCarthy en su propuesta Advice Taker. En 1963, J. Alan Robinson había descubierto un método simple para implementar la deducción en las computadoras, el algoritmo de resolución y unificación. Sin embargo, las implementaciones sencillas, como las que intentaron McCarthy y sus alumnos a fines de la década de 1960, eran especialmente intratables: los programas requerían una cantidad astronómica de pasos para demostrar teoremas simples. Un enfoque más fructífero de la lógica fue desarrollado en la década de 1970 por Robert Kowalski en la Universidad de Edimburgo, y pronto esto condujo a la colaboración con los investigadores franceses Alain Colmerauer y Philippe Roussel, quienes crearon el exitoso lenguaje de programación lógica Prolog. Prolog utiliza un subconjunto de lógica (cláusulas de Horn, estrechamente relacionadas con "reglas" y "reglas de producción") que permiten un cálculo manejable. Las reglas continuarían siendo influyentes, proporcionando una base para los sistemas expertos de Edward Feigenbaum y el trabajo continuo de Allen Newell y Herbert A. Simon que conduciría a Soar y sus teorías unificadas de la cognición.

Los críticos del enfoque lógico señalaron, como lo había hecho Dreyfus, que los seres humanos rara vez usaban la lógica cuando resolvían problemas. Los experimentos de psicólogos como Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman y otros proporcionaron pruebas. McCarthy respondió que lo que hace la gente es irrelevante. Argumentó que lo que realmente se necesita son máquinas que puedan resolver problemas, no máquinas que piensen como las personas.

Fotogramas y guiones: las "peleas"

Entre los críticos del enfoque de McCarthy estaban sus colegas del MIT de todo el país. Marvin Minsky, Seymour Papert y Roger Schank intentaban resolver problemas como "comprensión de historias" y "reconocimiento de objetos" que requerían que una máquina pensara como una persona. Para usar conceptos ordinarios como "silla" o "restaurante", tenían que hacer las mismas suposiciones ilógicas que la gente normalmente hacía. Desafortunadamente, conceptos imprecisos como estos son difíciles de representar en la lógica. Gerald Sussman observó que "usar un lenguaje preciso para describir conceptos esencialmente imprecisos no los hace más precisos". Schank describió sus enfoques "antilógicos" como "desaliñados", en oposición a los paradigmas "pulcros" utilizados por McCarthy,

En 1975, en un artículo seminal, Minsky señaló que muchos de sus compañeros investigadores "desaliñados" estaban usando el mismo tipo de herramienta: un marco que captura todas nuestras suposiciones de sentido común sobre algo. Por ejemplo, si usamos el concepto de pájaro, hay una constelación de hechos que inmediatamente vienen a la mente: podemos suponer que vuela, come gusanos, etc. Sabemos que estos hechos no siempre son ciertos y que las deducciones que utilizan estos hechos no serán "lógicas", pero estos conjuntos estructurados de suposiciones son parte del contexto de todo lo que decimos y pensamos. Llamó a estas estructuras "marcos". Schank usó una versión de marcos que llamó "guiones" para responder con éxito preguntas sobre cuentos en inglés.

Auge 1980-1987

En la década de 1980, las corporaciones de todo el mundo adoptaron una forma de programa de IA llamada "sistemas expertos" y el conocimiento se convirtió en el foco de la investigación principal de IA. En esos mismos años, el gobierno japonés financió agresivamente AI con su proyecto de computadora de quinta generación. Otro evento alentador a principios de la década de 1980 fue el resurgimiento del conexionismo en el trabajo de John Hopfield y David Rumelhart. Una vez más, AI había logrado el éxito.

El auge de los sistemas expertos

Un sistema experto es un programa que responde preguntas o resuelve problemas sobre un dominio específico del conocimiento, utilizando reglas lógicas que se derivan del conocimiento de los expertos. Los primeros ejemplos fueron desarrollados por Edward Feigenbaum y sus alumnos. Dendral, iniciado en 1965, identificó compuestos a partir de lecturas de espectrómetro. MYCIN, desarrollado en 1972, diagnosticó enfermedades infecciosas de la sangre. Demostraron la viabilidad del enfoque.

Los sistemas expertos se restringieron a sí mismos a un pequeño dominio de conocimiento específico (evitando así el problema del conocimiento de sentido común) y su diseño simple hizo que los programas fueran relativamente fáciles de construir y luego modificar una vez que estaban en su lugar. En general, los programas demostraron ser útiles: algo que AI no había podido lograr hasta este momento.

En 1980, se completó un sistema experto llamado XCON en CMU para Digital Equipment Corporation. Fue un enorme éxito: le estaba ahorrando a la empresa 40 millones de dólares anuales en 1986. Las corporaciones de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 estaban gastando más de mil millones de dólares en IA, la mayor parte en IA interna. departamentos Creció una industria para apoyarlos, incluidas empresas de hardware como Symbolics y Lisp Machines y empresas de software como IntelliCorp y Aion.

La revolución del conocimiento

El poder de los sistemas expertos provenía del conocimiento experto que contenían. Eran parte de una nueva dirección en la investigación de IA que había ido ganando terreno a lo largo de los años 70. "Los investigadores de IA comenzaban a sospechar, de mala gana, porque violaba el canon científico de parsimonia, que la inteligencia bien podría basarse en la capacidad de usar grandes cantidades de conocimiento diverso de diferentes maneras", escribe Pamela McCorduck. "[L] a gran lección de la década de 1970 fue que el comportamiento inteligente dependía en gran medida de tratar con el conocimiento, a veces un conocimiento bastante detallado, de un dominio en el que se encontraba una tarea determinada". Los sistemas basados ​​en el conocimiento y la ingeniería del conocimiento se convirtieron en un foco importante de la investigación de la IA en la década de 1980.

La década de 1980 también vio el nacimiento de Cyc, el primer intento de atacar directamente el problema del conocimiento del sentido común, mediante la creación de una base de datos masiva que contendría todos los hechos mundanos que conoce la persona promedio. Douglas Lenat, quien inició y dirigió el proyecto, argumentó que no hay atajos: la única forma en que las máquinas conocen el significado de los conceptos humanos es enseñándolos, un concepto a la vez, a mano. No se esperaba que el proyecto se completara durante muchas décadas.

Los programas de juego de ajedrez HiTech y Deep Thought derrotaron a los maestros de ajedrez en 1989. Ambos fueron desarrollados por la Universidad Carnegie Mellon; El desarrollo de Deep Thought allanó el camino para Deep Blue.

El dinero vuelve: el proyecto Quinta Generación

En 1981, el Ministerio de Industria y Comercio Internacional de Japón reservó 850 millones de dólares para el proyecto de la computadora de quinta generación. Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. Para disgusto de los desaliñados, eligieron Prolog como el lenguaje informático principal para el proyecto.

Otros países respondieron con nuevos programas propios. El Reino Unido inició el proyecto Alvey de 350 millones de libras esterlinas. Un consorcio de empresas estadounidenses formó Microelectronics and Computer Technology Corporation (o "MCC") para financiar proyectos a gran escala en inteligencia artificial y tecnología de la información. DARPA también respondió, fundando la Iniciativa de Computación Estratégica y triplicando su inversión en IA entre 1984 y 1988.

El renacimiento del conexionismo

En 1982, el físico John Hopfield pudo demostrar que una forma de red neuronal (ahora llamada "red de Hopfield") podía aprender y procesar información de una manera completamente nueva. Casi al mismo tiempo, Geoffrey Hinton y David Rumelhart popularizaron un método para entrenar redes neuronales llamado "backpropagation", también conocido como el modo inverso de diferenciación automática publicado por Seppo Linnainmaa (1970) y aplicado a redes neuronales por Paul Werbos. Estos dos descubrimientos ayudaron a revivir el campo del conexionismo.

El nuevo campo fue unificado e inspirado por la aparición de Parallel Distributed Processing en 1986, una colección de artículos en dos volúmenes editada por Rumelhart y el psicólogo James McClelland. Las redes neuronales tendrían éxito comercial en la década de 1990, cuando comenzaron a usarse como motores que impulsan programas como el reconocimiento óptico de caracteres y el reconocimiento de voz.

El desarrollo de la integración a muy gran escala (VLSI) de metal-óxido-semiconductor (MOS), en forma de tecnología MOS complementaria (CMOS), permitió el desarrollo de la tecnología práctica de redes neuronales artificiales (ANN) en la década de 1980. Una publicación histórica en el campo fue el libro de 1989 Implementación VLSI analógica de sistemas neuronales de Carver A. Mead y Mohammed Ismail.

Busto: el segundo invierno de AI 1987-1993

La fascinación de la comunidad empresarial por la IA aumentó y disminuyó en la década de 1980 en el patrón clásico de una burbuja económica. El colapso se debió a que los proveedores comerciales no desarrollaron una amplia variedad de soluciones viables. Como decenas de empresas fracasaron, la percepción fue que la tecnología no era viable. Sin embargo, el campo siguió avanzando a pesar de las críticas. Numerosos investigadores, incluidos los desarrolladores de robótica Rodney Brooks y Hans Moravec, abogaron por un enfoque completamente nuevo de la inteligencia artificial.

IA invierno

El término "invierno de la IA" fue acuñado por investigadores que habían sobrevivido a los recortes de financiación de 1974 cuando se preocuparon de que el entusiasmo por los sistemas expertos se hubiera descontrolado y que la decepción sin duda les siguiera. Sus temores estaban bien fundados: a fines de la década de 1980 y principios de la de 1990, AI sufrió una serie de reveses financieros.

El primer indicio de un cambio en el clima fue el colapso repentino del mercado de hardware de inteligencia artificial especializado en 1987. Las computadoras de escritorio de Apple e IBM habían ido ganando velocidad y potencia constantemente y en 1987 se volvieron más poderosas que las máquinas Lisp más caras fabricadas por simbólica y otras. Ya no había una buena razón para comprarlos. Toda una industria por valor de medio billón de dólares fue demolida de la noche a la mañana.

Eventualmente, los primeros sistemas expertos exitosos, como XCON, resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran "frágiles" (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales) y eran víctimas de problemas (como el problema de calificación) que se habían identificado años antes. Los sistemas expertos resultaron útiles, pero solo en unos pocos contextos especiales.

A fines de la década de 1980, la Iniciativa de Computación Estratégica recortó los fondos para la IA "profunda y brutalmente". El nuevo liderazgo en DARPA había decidido que la IA no era "la próxima ola" y dirigió los fondos hacia proyectos que parecían más probables de producir resultados inmediatos.

Para 1991, no se había cumplido la impresionante lista de metas escritas en 1981 para el Proyecto de Quinta Generación de Japón. De hecho, algunos de ellos, como "mantener una conversación informal", no se habían cumplido en 2010. Al igual que con otros proyectos de IA, las expectativas eran mucho más altas de lo que realmente era posible.

Más de 300 empresas de IA cerraron, quebraron o fueron adquiridas a fines de 1993, poniendo fin de manera efectiva a la primera ola comercial de IA. En 1994, HP Newquist declaró en The Brain Makers que "El futuro inmediato de la inteligencia artificial, en su forma comercial, parece depender en parte del éxito continuo de las redes neuronales".

Nouvelle AI y la razón encarnada

A fines de la década de 1980, varios investigadores abogaron por un enfoque completamente nuevo de la inteligencia artificial, basado en la robótica. Creían que, para mostrar inteligencia real, una máquina necesita tener un cuerpo: necesita percibir, moverse, sobrevivir y lidiar con el mundo. Argumentaron que estas habilidades sensoriomotrices son esenciales para habilidades de nivel superior como el razonamiento de sentido común y que el razonamiento abstracto era en realidad la habilidad humana menos interesante o importante (ver la paradoja de Moravec). Abogaron por construir inteligencia "de abajo hacia arriba".

El enfoque revivió ideas de la cibernética y la teoría del control que habían sido impopulares desde los años sesenta. Otro precursor fue David Marr, que había llegado al MIT a finales de la década de 1970 tras una exitosa formación en neurociencia teórica para dirigir el grupo que estudiaba la visión. Rechazó todos los enfoques simbólicos (tanto la lógica de McCarthy como los marcos de Minsky), argumentando que la IA necesitaba comprender la maquinaria física de la visión de abajo hacia arriba antes de que tuviera lugar cualquier procesamiento simbólico. (El trabajo de Marr sería interrumpido por la leucemia en 1980).

En un artículo de 1990, "Los elefantes no juegan al ajedrez", el investigador de robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios ya que "el mundo es su propio mejor modelo. Siempre está exactamente arriba". hasta la fecha. Siempre tiene todos los detalles que hay que saber. El truco es sentirlo apropiadamente y con la suficiente frecuencia". En las décadas de 1980 y 1990, muchos científicos cognitivos también rechazaron el modelo de procesamiento de símbolos de la mente y argumentaron que el cuerpo era esencial para el razonamiento, una teoría llamada tesis de la mente encarnada.

IA 1993–2011

El campo de la IA, que ahora tiene más de medio siglo, finalmente logró algunos de sus objetivos más antiguos. Comenzó a usarse con éxito en toda la industria de la tecnología, aunque algo entre bastidores. Parte del éxito se debió al aumento de la potencia de las computadoras y parte se logró centrándose en problemas aislados específicos y persiguiéndolos con los más altos estándares de responsabilidad científica. Aun así, la reputación de la IA, al menos en el mundo de los negocios, era menos que prístina.Dentro del campo hubo poco acuerdo sobre las razones por las que la IA no cumplió el sueño de la inteligencia a nivel humano que había capturado la imaginación del mundo en la década de 1960. Juntos, todos estos factores ayudaron a fragmentar la IA en subcampos competitivos centrados en problemas o enfoques particulares, a veces incluso bajo nuevos nombres que disfrazaban el pedigrí empañado de "inteligencia artificial". AI fue más cautelosa y más exitosa que nunca.

Hitos y ley de Moore

El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov. La supercomputadora era una versión especializada de un marco producido por IBM y era capaz de procesar el doble de movimientos por segundo que durante el primer partido (que Deep Blue había perdido), según se informa, 200.000.000 de movimientos por segundo. El evento fue transmitido en vivo por internet y recibió más de 74 millones de visitas.

En 2005, un robot de Stanford ganó el Gran Desafío de DARPA al conducir de forma autónoma durante 131 millas a lo largo de un sendero del desierto no ensayado. Dos años más tarde, un equipo de CMU ganó el Desafío Urbano de DARPA al navegar de forma autónoma 55 millas en un entorno urbano respetando los peligros del tráfico y todas las leyes de tránsito. En febrero de 2011, en Jeopardy! quiz show show match, el sistema de respuesta a preguntas de IBM, Watson, derrotó a los dos mayores Jeopardy! campeones, Brad Rutter y Ken Jennings, por un margen significativo.

Estos éxitos no se debieron a algún nuevo paradigma revolucionario, sino principalmente a la tediosa aplicación de la habilidad de la ingeniería y al tremendo aumento en la velocidad y la capacidad de la computadora en los años 90. De hecho, la computadora de Deep Blue era 10 millones de veces más rápida que la Ferranti Mark 1 que Christopher Strachey enseñó a jugar al ajedrez en 1951. Este espectacular aumento se mide por la ley de Moore, que predice que la velocidad y la capacidad de memoria de las computadoras se duplica cada dos años, como resultado de los recuentos de transistores de semiconductores de óxido de metal (MOS) que se duplican cada dos años. El problema fundamental de la "potencia bruta de la computadora" se estaba superando lentamente.

Agentes inteligentes

Un nuevo paradigma llamado "agentes inteligentes" fue ampliamente aceptado durante la década de 1990. Aunque los investigadores anteriores habían propuesto enfoques modulares de "divide y vencerás" para la IA, el agente inteligente no alcanzó su forma moderna hasta que Judea Pearl, Allen Newell, Leslie P. Kaelbling y otros introdujeron conceptos de la teoría de la decisión y la economía en el estudio de la IA.. Cuando la definición del economista de un agente racional se casó con la definición de un objeto o módulo de la informática, el paradigma del agente inteligente estaba completo.

Un agente inteligente es un sistema que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito. Según esta definición, los programas simples que resuelven problemas específicos son "agentes inteligentes", al igual que los seres humanos y las organizaciones de seres humanos, como las empresas. El paradigma del agente inteligente define la investigación de la IA como "el estudio de los agentes inteligentes". Esta es una generalización de algunas definiciones anteriores de IA: va más allá del estudio de la inteligencia humana; estudia todo tipo de inteligencia.

El paradigma dio licencia a los investigadores para estudiar problemas aislados y encontrar soluciones que fueran tanto verificables como útiles. Proporcionó un lenguaje común para describir problemas y compartir sus soluciones entre sí y con otros campos que también usaban conceptos de agentes abstractos, como la economía y la teoría del control. Se esperaba que una arquitectura de agente completa (como SOAR de Newell) algún día permitiría a los investigadores construir sistemas más versátiles e inteligentes a partir de agentes inteligentes que interactúan.

La "victoria de los limpios"

Los investigadores de IA comenzaron a desarrollar y utilizar herramientas matemáticas sofisticadas más que nunca en el pasado. Hubo una comprensión generalizada de que muchos de los problemas que la IA necesitaba resolver ya estaban siendo investigados por investigadores en campos como las matemáticas, la ingeniería eléctrica, la economía o la investigación de operaciones. El lenguaje matemático compartido permitió tanto un mayor nivel de colaboración con campos más establecidos y exitosos como el logro de resultados medibles y demostrables; La IA se había convertido en una disciplina "científica" más rigurosa. Russell y Norvig (2003) describen esto como nada menos que una "revolución" y "la victoria de los limpios".

El influyente libro de Judea Pearl de 1988 introdujo la teoría de la probabilidad y la decisión en la IA. Entre las muchas herramientas nuevas en uso estaban las redes bayesianas, los modelos ocultos de Markov, la teoría de la información, el modelado estocástico y la optimización clásica. También se desarrollaron descripciones matemáticas precisas para paradigmas de "inteligencia computacional" como redes neuronales y algoritmos evolutivos.

IA tras bambalinas

Los algoritmos desarrollados originalmente por investigadores de IA comenzaron a aparecer como partes de sistemas más grandes. La IA había resuelto muchos problemas muy difíciles y sus soluciones demostraron ser útiles en toda la industria de la tecnología, como la minería de datos, la robótica industrial, la logística, el reconocimiento de voz, el software bancario, el diagnóstico médico y el motor de búsqueda de Google.

El campo de la IA recibió poco o ningún crédito por estos éxitos en la década de 1990 y principios de la de 2000. Muchas de las mayores innovaciones de la IA se han reducido al estado de un elemento más en la caja de herramientas de la informática. Nick Bostrom explica: "Una gran cantidad de IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y común, ya no se etiqueta como IA".

Muchos investigadores de IA en la década de 1990 denominaron deliberadamente su trabajo con otros nombres, como informática, sistemas basados ​​en el conocimiento, sistemas cognitivos o inteligencia computacional. En parte, esto puede deberse a que consideraban que su campo era fundamentalmente diferente de la IA, pero también los nuevos nombres ayudan a obtener financiación. Al menos en el mundo comercial, las promesas fallidas de AI Winter continuaron acosando a la investigación de IA en la década de 2000, como informó el New York Times en 2005: "Los científicos informáticos y los ingenieros de software evitaron el término inteligencia artificial por temor a ser vistos como salvajes". -soñadores de ojos".

Predicciones (o "¿Dónde está HAL 9000?")

En 1968, Arthur C. Clarke y Stanley Kubrick imaginaron que, para el año 2001, existiría una máquina con una inteligencia que igualaría o superaría la capacidad de los seres humanos. El personaje que crearon, HAL 9000, se basó en la creencia compartida por muchos investigadores líderes en IA de que tal máquina existiría para el año 2001.

En 2001, el fundador de AI, Marvin Minsky, preguntó: "Entonces, la pregunta es ¿por qué no obtuvimos HAL en 2001?" Minsky creía que la respuesta es que los problemas centrales, como el razonamiento de sentido común, se estaban descuidando, mientras que la mayoría de los investigadores buscaban cosas como aplicaciones comerciales de redes neuronales o algoritmos genéticos. John McCarthy, por otro lado, todavía culpó al problema de calificación. Para Ray Kurzweil, el problema es el poder de la computadora y, utilizando la Ley de Moore, predijo que las máquinas con inteligencia a nivel humano aparecerán para 2029. Jeff Hawkins argumentó que la investigación de redes neuronales ignora las propiedades esenciales de la corteza humana, prefiriendo modelos simples que tienen tenido éxito en la resolución de problemas simples.Había muchas otras explicaciones y para cada una había un programa de investigación correspondiente en marcha.

Aprendizaje profundo, big data e inteligencia artificial general: 2011-presente

En las primeras décadas del siglo XXI, el acceso a grandes cantidades de datos (conocidos como "big data"), computadoras más baratas y rápidas y técnicas avanzadas de aprendizaje automático se aplicaron con éxito a muchos problemas en toda la economía. De hecho, McKinsey Global Institute estimó en su famoso artículo "Big data: La próxima frontera para la innovación, la competencia y la productividad" que "para 2009, casi todos los sectores de la economía estadounidense tenían al menos un promedio de 200 terabytes de datos almacenados"..

Para 2016, el mercado de productos, hardware y software relacionados con la IA alcanzó más de 8 mil millones de dólares, y el New York Times informó que el interés en la IA había llegado a un "frenesí". Las aplicaciones de big data también comenzaron a llegar a otros campos, como modelos de entrenamiento en ecología y para diversas aplicaciones en economía. Los avances en el aprendizaje profundo (en particular, las redes neuronales convolucionales profundas y las redes neuronales recurrentes) impulsaron el progreso y la investigación en el procesamiento de imágenes y videos, el análisis de texto e incluso el reconocimiento de voz.

Aprendizaje profundo

El aprendizaje profundo es una rama del aprendizaje automático que modela abstracciones de alto nivel en los datos mediante el uso de un gráfico profundo con muchas capas de procesamiento. De acuerdo con el teorema de aproximación universal, la profundidad no es necesaria para que una red neuronal pueda aproximar funciones continuas arbitrarias. Aun así, hay muchos problemas que son comunes a las redes superficiales (como el sobreajuste) que las redes profundas ayudan a evitar. Como tal, las redes neuronales profundas pueden generar de manera realista modelos mucho más complejos en comparación con sus contrapartes superficiales.

Sin embargo, el aprendizaje profundo tiene sus propios problemas. Un problema común para las redes neuronales recurrentes es el problema del gradiente de fuga, que es donde los gradientes que pasan entre las capas se reducen gradualmente y literalmente desaparecen a medida que se redondean a cero. Se han desarrollado muchos métodos para abordar este problema, como las unidades de memoria a largo plazo.

Las arquitecturas de redes neuronales profundas de última generación a veces pueden incluso rivalizar con la precisión humana en campos como la visión por computadora, específicamente en cosas como la base de datos MNIST y el reconocimiento de señales de tráfico.

Los motores de procesamiento de idiomas impulsados ​​por motores de búsqueda inteligentes pueden vencer fácilmente a los humanos al responder preguntas de trivia generales (como IBM Watson), y los desarrollos recientes en el aprendizaje profundo han producido resultados sorprendentes al competir con los humanos, en cosas como Go y Doom (que, siendo un juego de disparos en primera persona, ha desatado cierta controversia).

Grandes datos

Big data se refiere a una colección de datos que no pueden ser capturados, administrados y procesados ​​por herramientas de software convencionales dentro de un período de tiempo determinado. Es una gran cantidad de capacidades de optimización de procesos, conocimiento y toma de decisiones que requieren nuevos modelos de procesamiento. En la Era de Big Data escrita por Victor Meyer Schonberg y Kenneth Cooke, big data significa que en lugar de un análisis aleatorio (encuesta de muestra), todos los datos se utilizan para el análisis. Las características de 5V de big data (propuestas por IBM): Volumen, Velocidad, Variedad, Valor, Veracidad. La importancia estratégica de la tecnología de big data no es dominar la información de datos enormes, sino especializarse en estos datos significativos. En otras palabras, si se compara big data con una industria, la clave para lograr la rentabilidad en esta industria es aumentar la "capacidad de proceso" de los datos y obtener el "valor agregado" de los datos a través del "procesamiento".

Inteligencia general artificial

La inteligencia general es la capacidad de resolver cualquier problema, en lugar de encontrar una solución a un problema en particular. La inteligencia general artificial (o "AGI") es un programa que puede aplicar la inteligencia a una amplia variedad de problemas, de la misma manera que los humanos.

Ben Goertzel y otros argumentaron a principios de la década de 2000 que la investigación de IA había renunciado en gran medida al objetivo original del campo de crear inteligencia artificial general. La investigación AGI se fundó como un subcampo separado y para 2010 había conferencias académicas, laboratorios y cursos universitarios dedicados a la investigación AGI, así como consorcios privados y nuevas empresas.

La inteligencia artificial general también se conoce como "IA fuerte", "IA completa" o inteligencia sintética en lugar de "IA débil" o "IA estrecha". (Las fuentes académicas reservan "IA fuerte" para referirse a máquinas capaces de experimentar la conciencia).