Inteligencia artificial (IA)

Compartir Imprimir Citar

La inteligencia artificial (IA) es la inteligencia demostrada por las máquinas, a diferencia de la inteligencia natural que muestran los animales, incluidos los humanos. Los principales libros de texto de IA definen el campo como el estudio de "agentes inteligentes": cualquier sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de lograr sus objetivos.

Algunas cuentas populares usan el término "inteligencia artificial" para describir máquinas que imitan las funciones "cognitivas" que los humanos asocian con la mente humana, como "aprender" y "resolver problemas". Sin embargo, esta definición es rechazada por los principales investigadores de IA.

Las aplicaciones de IA incluyen motores de búsqueda web avanzados (p. ej., Google), sistemas de recomendación (utilizados por YouTube, Amazon y Netflix), comprensión del habla humana (como Siri y Alexa), vehículos autónomos (p. ej., Tesla), toma de decisiones automatizada y competir al más alto nivel en sistemas de juegos estratégicos (como el ajedrez y el Go). A medida que las máquinas se vuelven cada vez más capaces, las tareas que se considera que requieren "inteligencia" a menudo se eliminan de la definición de IA, un fenómeno conocido como efecto IA. Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA, ya que se ha convertido en una tecnología de rutina.

La inteligencia artificial se fundó como disciplina académica en 1956 y, desde entonces, ha experimentado varias oleadas de optimismo, seguidas de decepción y pérdida de financiación (conocido como "invierno de IA"), seguidas de nuevos enfoques, éxito y financiación renovada.. La investigación de IA ha probado y descartado muchos enfoques diferentes desde su fundación, incluida la simulación del cerebro, el modelado de la resolución de problemas humanos, la lógica formal, las grandes bases de datos de conocimiento y la imitación del comportamiento animal. En las primeras décadas del siglo XXI, el aprendizaje automático altamente matemático-estadístico ha dominado el campo, y esta técnica ha demostrado ser muy exitosa, ayudando a resolver muchos problemas desafiantes en la industria y la academia.

Los diversos subcampos de la investigación de IA se centran en objetivos particulares y el uso de herramientas particulares. Los objetivos tradicionales de la investigación de la IA incluyen el razonamiento, la representación del conocimiento, la planificación, el aprendizaje, el procesamiento del lenguaje natural, la percepción y la capacidad de mover y manipular objetos. La inteligencia general (la capacidad de resolver un problema arbitrario) se encuentra entre los objetivos a largo plazo del campo. Para resolver estos problemas, los investigadores de IA han adaptado e integrado una amplia gama de técnicas de resolución de problemas, que incluyen búsqueda y optimización matemática, lógica formal, redes neuronales artificiales y métodos basados ​​en estadísticas, probabilidad y economía. AI también se basa en la informática, la psicología, la lingüística, la filosofía y muchos otros campos.

El campo se basó en la suposición de que la inteligencia humana "se puede describir con tanta precisión que se puede hacer una máquina para simularla". Esto plantea argumentos filosóficos sobre la mente y la ética de crear seres artificiales dotados de una inteligencia similar a la humana. Estos temas han sido explorados por el mito, la ficción y la filosofía desde la antigüedad. La ciencia ficción y la futurología también han sugerido que, con su enorme potencial y poder, la IA puede convertirse en un riesgo existencial para la humanidad.

Historia

Los seres artificiales con inteligencia aparecieron como dispositivos narrativos en la antigüedad y han sido comunes en la ficción, como en Frankenstein de Mary Shelley o RUR de Karel Čapek. Estos personajes y sus destinos plantearon muchos de los mismos problemas que ahora se discuten en la ética de la inteligencia artificial.

El estudio del razonamiento mecánico o "formal" comenzó con los filósofos y matemáticos de la antigüedad. El estudio de la lógica matemática condujo directamente a la teoría de la computación de Alan Turing, que sugería que una máquina, mezclando símbolos tan simples como "0" y "1", podía simular cualquier acto concebible de deducción matemática. Esta idea de que las computadoras digitales pueden simular cualquier proceso de razonamiento formal se conoce como la tesis de Church-Turing.

La tesis de Church-Turing, junto con descubrimientos simultáneos en neurobiología, teoría de la información y cibernética, llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. El primer trabajo que ahora se reconoce generalmente como IA fue el diseño formal de 1943 de McCullouch y Pitts para las "neuronas artificiales" completas de Turing.

Cuando se hizo posible el acceso a las computadoras digitales a mediados de la década de 1950, la investigación de IA comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos paso a paso, conocida como IA simbólica o GOFAI. Los enfoques basados ​​en la cibernética o las redes neuronales artificiales fueron abandonados o relegados a un segundo plano.

El campo de la investigación en IA nació en un taller en Dartmouth College en 1956. Los asistentes se convirtieron en los fundadores y líderes de la investigación en IA. Ellos y sus alumnos produjeron programas que la prensa describió como "asombrosos": las computadoras estaban aprendiendo estrategias de damas, resolviendo problemas de álgebra, probando teoremas lógicos y hablando inglés. A mediados de la década de 1960, la investigación en los EE. UU. estaba fuertemente financiada por el Departamento de Defensa y se habían establecido laboratorios en todo el mundo.

Los investigadores de las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos finalmente tendrían éxito en la creación de una máquina con inteligencia artificial general y consideraron que este era el objetivo de su campo. Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que pueda hacer un hombre". Marvin Minsky estuvo de acuerdo, escribiendo, "dentro de una generación... el problema de crear 'inteligencia artificial' se resolverá sustancialmente".

No supieron reconocer la dificultad de algunas de las tareas restantes. El progreso se desaceleró y en 1974, en respuesta a las críticas de Sir James Lighthill y la presión constante del Congreso de los EE. UU. para financiar proyectos más productivos, tanto el gobierno de EE. UU. como el británico suspendieron la investigación exploratoria en IA. Los próximos años se llamarían más tarde un "invierno de IA", un período en el que fue difícil obtener fondos para proyectos de IA.

A principios de la década de 1980, la investigación de la IA revivió con el éxito comercial de los sistemas expertos, una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA superaba los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de EE. UU. y Gran Bretaña a restablecer la financiación de la investigación académica. Sin embargo, a partir del colapso del mercado de Lisp Machine en 1987, la IA volvió a caer en descrédito y comenzó un segundo invierno más prolongado.

Muchos investigadores comenzaron a dudar de que el enfoque simbólico pudiera imitar todos los procesos de la cognición humana, especialmente la percepción, la robótica, el aprendizaje y el reconocimiento de patrones. Varios investigadores comenzaron a buscar enfoques "subsimbólicos" para problemas específicos de IA. Los investigadores de robótica, como Rodney Brooks, rechazaron la IA simbólica y se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse, sobrevivir y conocer su entorno. El interés por las redes neuronales y el "conexionismo" fue revivido por Geoffrey Hinton, David Rumelhart y otros a mediados de la década de 1980. Las herramientas informáticas blandas se desarrollaron en los años 80, como las redes neuronales, los sistemas difusos, la teoría del sistema Gray, la computación evolutiva y muchas herramientas extraídas de la estadística o la optimización matemática.

AI restauró gradualmente su reputación a fines de la década de 1990 y principios del siglo XXI al encontrar soluciones específicas para problemas específicos. El enfoque limitado permitió a los investigadores producir resultados verificables, explotar más métodos matemáticos y colaborar con otros campos (como estadísticas, economía y matemáticas). Para el año 2000, las soluciones desarrolladas por investigadores de IA se usaban ampliamente, aunque en la década de 1990 rara vez se describían como "inteligencia artificial".

Computadoras más rápidas, mejoras algorítmicas y acceso a grandes cantidades de datos permitieron avances en el aprendizaje automático y la percepción; Los métodos de aprendizaje profundo hambrientos de datos comenzaron a dominar los puntos de referencia de precisión alrededor de 2012. Según Jack Clark de Bloomberg, 2015 fue un año histórico para la inteligencia artificial, con la cantidad de proyectos de software que usan IA dentro de Google aumentó de un "uso esporádico" en 2012 a más de 2.700 proyectos. Él atribuye esto a un aumento en las redes neuronales asequibles, debido a un aumento en la infraestructura de computación en la nube y a un aumento en las herramientas y conjuntos de datos de investigación. En una encuesta de 2017, una de cada cinco empresas informó que había "incorporado IA en algunas ofertas o procesos".La cantidad de investigación sobre IA (medida por el total de publicaciones) aumentó en un 50 % en los años 2015–2019.

Numerosos investigadores académicos se preocuparon de que la IA ya no persiguiera el objetivo original de crear máquinas versátiles y completamente inteligentes. Gran parte de la investigación actual involucra IA estadística, que se usa abrumadoramente para resolver problemas específicos, incluso técnicas altamente exitosas como el aprendizaje profundo. Esta preocupación ha llevado al subcampo de inteligencia artificial general (o "AGI"), que tenía varias instituciones bien financiadas en la década de 2010.

Metas

El problema general de simular (o crear) inteligencia se ha desglosado en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención.

Razonamiento, resolución de problemas.

Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que usan los humanos cuando resuelven acertijos o hacen deducciones lógicas. A fines de la década de 1980 y 1990, la investigación de IA había desarrollado métodos para manejar información incierta o incompleta, empleando conceptos de probabilidad y economía.

Muchos de estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento porque experimentaron una "explosión combinatoria": se volvieron exponencialmente más lentos a medida que los problemas crecían. Incluso los humanos rara vez usan la deducción paso a paso que podría modelar la investigación temprana de IA. Resuelven la mayoría de sus problemas usando juicios rápidos e intuitivos.

Representación del conocimiento

La representación del conocimiento y la ingeniería del conocimiento permiten que los programas de IA respondan preguntas de manera inteligente y hagan deducciones sobre hechos del mundo real.

Una representación de "lo que existe" es una ontología: el conjunto de objetos, relaciones, conceptos y propiedades descritos formalmente para que los agentes de software puedan interpretarlos. Las ontologías más generales se denominan ontologías superiores, que intentan proporcionar una base para todos los demás conocimientos y actúan como mediadores entre ontologías de dominio que cubren conocimientos específicos sobre un dominio de conocimiento particular (campo de interés o área de interés). Un programa verdaderamente inteligente también necesitaría acceso al conocimiento del sentido común; el conjunto de hechos que una persona promedio conoce. La semántica de una ontología generalmente se representa en la lógica de descripción, como el lenguaje de ontología web.

La investigación de IA ha desarrollado herramientas para representar dominios específicos, como objetos, propiedades, categorías y relaciones entre objetos; situaciones, eventos, estados y tiempo; causas y efectos; conocimiento sobre el conocimiento (lo que sabemos sobre lo que otras personas saben); razonamiento predeterminado (cosas que los humanos asumen que son ciertas hasta que se les dice de otra manera y seguirán siendo ciertas incluso cuando otros hechos están cambiando); así como otros dominios. Entre los problemas más difíciles de la IA se encuentran: la amplitud del conocimiento de sentido común (la cantidad de hechos atómicos que conoce la persona promedio es enorme); y la forma subsimbólica de la mayoría del conocimiento de sentido común (mucho de lo que la gente sabe no se representa como "hechos" o "afirmaciones" que puedan expresar verbalmente).

Las representaciones de conocimiento formal se utilizan en la indexación y recuperación basadas en contenido, interpretación de escenas, soporte de decisiones clínicas, descubrimiento de conocimiento (extracción de inferencias "interesantes" y procesables de grandes bases de datos) y otras áreas.

Planificación

Un agente inteligente que puede planificar hace una representación del estado del mundo, hace predicciones sobre cómo sus acciones lo cambiarán y toma decisiones que maximizan la utilidad (o "valor") de las opciones disponibles. En los problemas clásicos de planificación, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones. Sin embargo, si el agente no es el único actor, entonces requiere que el agente razone bajo incertidumbre y reevalúe continuamente su entorno y se adapte. La planificación multiagente utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. El comportamiento emergente como este es utilizado por algoritmos evolutivos e inteligencia de enjambre.

Aprendizaje

El aprendizaje automático (ML), un concepto fundamental de la investigación de IA desde el inicio del campo, es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia.

El aprendizaje no supervisado encuentra patrones en un flujo de entrada. El aprendizaje supervisado requiere que un ser humano etiquete primero los datos de entrada y se presenta en dos variedades principales: clasificación y regresión numérica. La clasificación se usa para determinar a qué categoría pertenece algo: el programa ve una serie de ejemplos de cosas de varias categorías y aprenderá a clasificar nuevas entradas. La regresión es el intento de producir una función que describa la relación entre entradas y salidas y prediga cómo deberían cambiar las salidas a medida que cambian las entradas. Tanto los clasificadores como los aprendices de regresión pueden verse como "aproximadores de funciones" que intentan aprender una función desconocida (posiblemente implícita); por ejemplo, se puede considerar que un clasificador de spam aprende una función que asigna el texto de un correo electrónico a una de dos categorías, "spam" En el aprendizaje por refuerzo, el agente es recompensado por las buenas respuestas y castigado por las malas. El agente clasifica sus respuestas para formar una estrategia para operar en su espacio problemático. El aprendizaje por transferencia es cuando el conocimiento obtenido de un problema se aplica a un nuevo problema.

La teoría del aprendizaje computacional puede evaluar a los alumnos por complejidad computacional, por complejidad de muestra (cuántos datos se requieren) o por otras nociones de optimización.

Procesamiento natural del lenguaje

El procesamiento del lenguaje natural (NLP) permite que las máquinas lean y entiendan el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente poderoso permitiría interfaces de usuario de lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como textos de noticias. Algunas aplicaciones sencillas de la PNL incluyen la recuperación de información, la respuesta a preguntas y la traducción automática.

La IA simbólica utilizó la sintaxis formal para traducir la estructura profunda de las oraciones a la lógica. Esto no logró producir aplicaciones útiles, debido a la intratabilidad de la lógica y la amplitud del conocimiento del sentido común. Las técnicas estadísticas modernas incluyen frecuencias de co-ocurrencia (con qué frecuencia aparece una palabra cerca de otra), "detección de palabras clave" (búsqueda de una palabra en particular para recuperar información), aprendizaje profundo basado en transformadores (que encuentra patrones en el texto) y otros. Han logrado una precisión aceptable a nivel de página o párrafo y, para 2019, podrían generar un texto coherente.

Percepción

La percepción de la máquina es la capacidad de utilizar la entrada de sensores (como cámaras, micrófonos, señales inalámbricas y sensores táctiles, de sonda, radar y lidar activos) para deducir aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz, reconocimiento facial y reconocimiento de objetos.

La visión artificial es la capacidad de analizar la entrada visual.

Movimiento y manipulación

La IA se usa mucho en robótica. La localización es cómo un robot conoce su ubicación y mapea su entorno. Cuando se le da un entorno pequeño, estático y visible, esto es fácil; sin embargo, los entornos dinámicos, como (en endoscopia) el interior del cuerpo que respira de un paciente, plantean un desafío mayor.

La planificación de movimientos es el proceso de dividir una tarea de movimiento en "primitivos", como movimientos de articulaciones individuales. Dicho movimiento a menudo implica un movimiento compatible, un proceso en el que el movimiento requiere mantener el contacto físico con un objeto. Los robots pueden aprender de la experiencia cómo moverse de manera eficiente a pesar de la presencia de fricción y deslizamiento de engranajes.

Inteligencia social

La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan sentimientos, emociones y estados de ánimo humanos. Por ejemplo, algunos asistentes virtuales están programados para hablar conversacionalmente o incluso para bromear con humor; los hace parecer más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción humano-computadora. Sin embargo, esto tiende a dar a los usuarios ingenuos una concepción poco realista de cuán inteligentes son en realidad los agentes informáticos existentes.

Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimientos textuales y, más recientemente, el análisis de sentimientos multimodal, en los que la IA clasifica los afectos mostrados por un sujeto grabado en video.

Inteligencia general

Una máquina con inteligencia general puede resolver una gran variedad de problemas con una amplitud y versatilidad similar a la inteligencia humana. Hay varias ideas en competencia sobre cómo desarrollar inteligencia general artificial. Hans Moravec y Marvin Minsky argumentan que el trabajo en diferentes dominios individuales puede incorporarse a un sistema multiagente avanzado o arquitectura cognitiva con inteligencia general. Pedro Domingos espera que haya un "algoritmo maestro" conceptualmente sencillo, pero matemáticamente difícil, que pueda conducir a AGI. Otros creen que las características antropomórficas, como un cerebro artificial o un desarrollo infantil simulado, algún día alcanzarán un punto crítico en el que emergerá la inteligencia general.

Instrumentos

Búsqueda y optimización

Muchos problemas en IA pueden resolverse teóricamente mediante la búsqueda inteligente a través de muchas soluciones posibles: el razonamiento puede reducirse a realizar una búsqueda. Por ejemplo, la prueba lógica puede verse como la búsqueda de un camino que lleve de las premisas a las conclusiones, donde cada paso es la aplicación de una regla de inferencia. Los algoritmos de planificación buscan a través de árboles de objetivos y subobjetivos, intentando encontrar un camino hacia un objetivo objetivo, un proceso llamado análisis de medios y fines. Los algoritmos de robótica para mover extremidades y agarrar objetos utilizan búsquedas locales en el espacio de configuración.

Las búsquedas exhaustivas simples rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (la cantidad de lugares para buscar) crece rápidamente a números astronómicos. El resultado es una búsqueda demasiado lenta o que nunca se completa. La solución, para muchos problemas, es usar "heurísticas" o "reglas empíricas" que prioricen las elecciones a favor de aquellas que tienen más probabilidades de alcanzar una meta y hacerlo en un número más corto de pasos. En algunas metodologías de búsqueda, la heurística también puede servir para eliminar algunas opciones que probablemente no conduzcan a un objetivo (llamado "poda del árbol de búsqueda"). La heurística proporciona al programa una "mejor estimación" del camino en el que se encuentra la solución. Las heurísticas limitan la búsqueda de soluciones a un tamaño de muestra más pequeño.

Un tipo de búsqueda muy diferente cobró importancia en la década de 1990, basado en la teoría matemática de la optimización. Para muchos problemas, es posible comenzar la búsqueda con algún tipo de conjetura y luego refinar la conjetura gradualmente hasta que no se puedan hacer más refinamientos. Estos algoritmos se pueden visualizar como una escalada a ciegas: comenzamos la búsqueda en un punto aleatorio del paisaje y luego, a saltos o pasos, seguimos avanzando cuesta arriba, hasta llegar a la cima. Otros algoritmos de optimización relacionados incluyen optimización aleatoria, búsqueda de haces y metaheurísticas como recocido simulado. El cálculo evolutivo utiliza una forma de búsqueda de optimización. Por ejemplo, pueden comenzar con una población de organismos (las conjeturas) y luego permitirles mutar y recombinarse, seleccionando solo los más aptos para sobrevivir cada generación (refinando las conjeturas). Los algoritmos evolutivos clásicos incluyen algoritmos genéticos, programación de expresión génica y programación genética. Alternativamente, los procesos de búsqueda distribuidos pueden coordinarse a través de algoritmos de inteligencia de enjambre. Dos algoritmos de enjambre populares que se utilizan en la búsqueda son la optimización de enjambres de partículas (inspirada en las bandadas de pájaros) y la optimización de colonias de hormigas (inspirada en los rastros de hormigas).

Lógica

La lógica se utiliza para la representación del conocimiento y la resolución de problemas, pero también se puede aplicar a otros problemas. Por ejemplo, el algoritmo satplan utiliza la lógica para la planificación y la programación lógica inductiva es un método para el aprendizaje.

Varias formas diferentes de lógica se utilizan en la investigación de IA. La lógica proposicional implica funciones de verdad como "o" y "no". La lógica de primer orden agrega cuantificadores y predicados y puede expresar hechos sobre objetos, sus propiedades y sus relaciones entre sí. La lógica difusa asigna un "grado de verdad" (entre 0 y 1) a afirmaciones vagas como "Alicia es vieja" (o rica, alta o hambrienta), que son demasiado imprecisas lingüísticamente para ser completamente verdaderas o falsas. Las lógicas por defecto, las lógicas no monótonas y la circunscripción son formas de lógica diseñadas para ayudar con el razonamiento por defecto y el problema de calificación. Se han diseñado varias extensiones de la lógica para manejar dominios específicos del conocimiento, como la lógica de descripción; cálculo de situación, cálculo de eventos y cálculo fluido (para representar eventos y tiempo); cálculo causal; cálculo de creencias (revisión de creencias); y lógicas modales. También se han diseñado lógicas para modelar enunciados contradictorios o inconsistentes que surgen en sistemas multiagente, como las lógicas paraconsistentes.

Métodos probabilísticos para el razonamiento incierto

Muchos problemas en IA (incluidos el razonamiento, la planificación, el aprendizaje, la percepción y la robótica) requieren que el agente opere con información incompleta o incierta. Los investigadores de IA han ideado una serie de herramientas para resolver estos problemas utilizando métodos de la teoría de la probabilidad y la economía. Las redes bayesianas son una herramienta muy general que se puede usar para varios problemas, incluido el razonamiento (usando el algoritmo de inferencia bayesiano), el aprendizaje (usando el algoritmo de maximización de expectativas), la planificación (usando redes de decisión) y la percepción (usando redes bayesianas dinámicas). Los algoritmos probabilísticos también se pueden usar para filtrar, predecir, suavizar y encontrar explicaciones para flujos de datos, lo que ayuda a los sistemas de percepción a analizar procesos que ocurren con el tiempo (por ejemplo, modelos ocultos de Markov o filtros de Kalman).

Un concepto clave de la ciencia económica es la "utilidad", una medida de cuán valioso es algo para un agente inteligente. Se han desarrollado herramientas matemáticas precisas que analizan cómo un agente puede tomar decisiones y planificar, utilizando la teoría de la decisión, el análisis de la decisión y la teoría del valor de la información. Estas herramientas incluyen modelos como los procesos de decisión de Markov, las redes de decisión dinámicas, la teoría de juegos y el diseño de mecanismos.

Clasificadores y métodos de aprendizaje estadístico

Las aplicaciones de IA más simples se pueden dividir en dos tipos: clasificadores ("si es brillante, entonces diamante") y controladores ("si es diamante, entonces recoge"). Sin embargo, los controladores también clasifican las condiciones antes de inferir acciones y, por lo tanto, la clasificación forma una parte central de muchos sistemas de IA. Los clasificadores son funciones que utilizan la coincidencia de patrones para determinar la coincidencia más cercana. Se pueden ajustar según los ejemplos, lo que los hace muy atractivos para su uso en IA. Estos ejemplos se conocen como observaciones o patrones. En el aprendizaje supervisado, cada patrón pertenece a una determinada clase predefinida. Una clase es una decisión que hay que tomar. Todas las observaciones combinadas con sus etiquetas de clase se conocen como un conjunto de datos. Cuando se recibe una nueva observación, esa observación se clasifica en función de la experiencia previa.

Un clasificador se puede entrenar de varias maneras; hay muchos enfoques estadísticos y de aprendizaje automático. El árbol de decisión es el algoritmo de aprendizaje automático simbólico más simple y más utilizado. El algoritmo K-vecino más cercano fue la IA analógica más utilizada hasta mediados de la década de 1990. Los métodos del núcleo, como la máquina de vectores de soporte (SVM), desplazaron al vecino más cercano en la década de 1990. Según los informes, el clasificador ingenuo de Bayes es el "aprendiz más utilizado" en Google, debido en parte a su escalabilidad. Las redes neuronales también se utilizan para la clasificación.

El rendimiento del clasificador depende en gran medida de las características de los datos que se van a clasificar, como el tamaño del conjunto de datos, la distribución de muestras entre clases, la dimensionalidad y el nivel de ruido. Los clasificadores basados ​​en modelos funcionan bien si el modelo asumido se ajusta muy bien a los datos reales. De lo contrario, si no hay un modelo coincidente disponible y si la precisión (en lugar de la velocidad o la escalabilidad) es la única preocupación, la sabiduría convencional es que los clasificadores discriminativos (especialmente SVM) tienden a ser más precisos que los clasificadores basados ​​en modelos como "naive Bayes". en la mayoría de los conjuntos de datos prácticos.

Redes neuronales artificiales

Las redes neuronales se inspiraron en la arquitectura de las neuronas del cerebro humano. Una simple "neurona" N acepta la entrada de otras neuronas, cada una de las cuales, cuando se activa (o "dispara"), emite un "voto" ponderado a favor o en contra de si la neurona N debería activarse. El aprendizaje requiere un algoritmo para ajustar estos pesos en función de los datos de entrenamiento; un algoritmo simple (llamado "disparar juntos, conectar juntos") es aumentar el peso entre dos neuronas conectadas cuando la activación de una desencadena la activación exitosa de otra. Las neuronas tienen un espectro continuo de activación; además, las neuronas pueden procesar entradas de forma no lineal en lugar de sopesar votos directos.

Las redes neuronales modernas modelan relaciones complejas entre entradas y salidas y encuentran patrones en los datos. Pueden aprender funciones continuas e incluso operaciones lógicas digitales. Las redes neuronales se pueden ver como un tipo de optimización matemática: realizan un descenso de gradiente en una topología multidimensional que se creó al entrenar la red. La técnica de entrenamiento más común es el algoritmo de retropropagación. Otras técnicas de aprendizaje para redes neuronales son el aprendizaje hebbiano ("disparar juntos, conectar juntos"), GMDH o aprendizaje competitivo.

Las principales categorías de redes son redes neuronales acíclicas o feedforward (donde la señal pasa en una sola dirección) y redes neuronales recurrentes (que permiten la retroalimentación y los recuerdos a corto plazo de eventos de entrada anteriores). Entre las redes feedforward más populares se encuentran los perceptrones, los perceptrones multicapa y las redes de base radial.

Aprendizaje profundo

El aprendizaje profundo utiliza varias capas de neuronas entre las entradas y salidas de la red. Las múltiples capas pueden extraer progresivamente características de alto nivel de la entrada sin procesar. Por ejemplo, en el procesamiento de imágenes, las capas inferiores pueden identificar los bordes, mientras que las capas superiores pueden identificar los conceptos relevantes para un ser humano, como dígitos, letras o rostros. El aprendizaje profundo ha mejorado drásticamente el rendimiento de los programas en muchos subcampos importantes de la inteligencia artificial, incluida la visión por computadora, el reconocimiento de voz, la clasificación de imágenes y otros.

El aprendizaje profundo a menudo usa redes neuronales convolucionales para muchas o todas sus capas. En una capa convolucional, cada neurona recibe información de solo un área restringida de la capa anterior llamada campo receptivo de la neurona. Esto puede reducir sustancialmente el número de conexiones ponderadas entre neuronas y crea una jerarquía similar a la organización de la corteza visual animal.

En una red neuronal recurrente, la señal se propagará a través de una capa más de una vez; por lo tanto, un RNN es un ejemplo de aprendizaje profundo. Los RNN se pueden entrenar mediante el descenso de gradiente, sin embargo, los gradientes a largo plazo que se propagan hacia atrás pueden "desaparecer" (es decir, pueden tender a cero) o "explotar" (es decir, pueden tender al infinito), conocido como el Problema del gradiente de fuga. La técnica de memoria a largo plazo (LSTM) puede evitar esto en la mayoría de los casos.

Idiomas y hardware especializados

Se han desarrollado lenguajes especializados para inteligencia artificial, como Lisp, Prolog, TensorFlow y muchos otros. El hardware desarrollado para IA incluye aceleradores de IA y computación neuromórfica.

Aplicaciones

La IA es relevante para cualquier tarea intelectual. Las técnicas modernas de inteligencia artificial están generalizadas y son demasiado numerosas para enumerarlas aquí. Con frecuencia, cuando una técnica alcanza un uso generalizado, ya no se considera inteligencia artificial; este fenómeno se describe como el efecto AI.

En la década de 2010, las aplicaciones de IA estaban en el corazón de las áreas informáticas de mayor éxito comercial y se han convertido en una característica omnipresente de la vida diaria. La IA se utiliza en motores de búsqueda (como la Búsqueda de Google), orientación de anuncios en línea, sistemas de recomendación (ofrecidos por Netflix, YouTube o Amazon), conducción del tráfico de Internet, publicidad dirigida (AdSense, Facebook), asistentes virtuales (como Siri o Alexa), vehículos autónomos (incluidos drones y autos sin conductor), traducción automática de idiomas (Microsoft Translator, Google Translate), reconocimiento facial (Apple's Face ID o Microsoft's DeepFace), etiquetado de imágenes (utilizado por Facebook, Apple's iPhoto y TikTok) y filtrado de spam.

También hay miles de aplicaciones de IA exitosas que se utilizan para resolver problemas para industrias o instituciones específicas. Algunos ejemplos son el almacenamiento de energía, las falsificaciones profundas, el diagnóstico médico, la logística militar o la gestión de la cadena de suministro.

Los juegos han sido una prueba de la fuerza de la IA desde la década de 1950. Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov, el 11 de mayo de 1997. En 2011, en Jeopardy! quiz show show match, el sistema de respuesta a preguntas de IBM, Watson, derrotó a los dos mayores Jeopardy! campeones, Brad Rutter y Ken Jennings, por un margen significativo. En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go Lee Sedol, convirtiéndose en el primer sistema de computadora de juego Go en vencer a un jugador profesional de Go sin desventajas. Otros programas manejan juegos de información imperfecta; como para el póquer a un nivel sobrehumano, Pluribus y Cepheus. DeepMind en la década de 2010 desarrolló una "inteligencia artificial generalizada" que podía aprender muchos juegos Atari diversos por sí solo.

Para 2020, los sistemas de procesamiento de lenguaje natural, como el enorme GPT-3 (entonces, con mucho, la red neuronal artificial más grande), igualaban el rendimiento humano en puntos de referencia preexistentes, aunque sin que el sistema lograra una comprensión de sentido común de los contenidos de los puntos de referencia. AlphaFold 2 (2020) de DeepMind demostró la capacidad de aproximarse, en horas en lugar de meses, a la estructura 3D de una proteína. Otras aplicaciones predicen el resultado de decisiones judiciales, crean arte (como poesía o pintura) y prueban teoremas matemáticos.

En 2019, la OMPI informó que la IA era la tecnología emergente más prolífica en términos de número de solicitudes de patentes y patentes concedidas, se estimó que Internet de las cosas era la más grande en términos de tamaño de mercado. Le siguieron, nuevamente en tamaño de mercado, las tecnologías de big data, robótica, IA, impresión 3D y la quinta generación de servicios móviles (5G). Desde que surgió la IA en la década de 1950, los innovadores presentaron 340 000 solicitudes de patentes relacionadas con la IA y los investigadores publicaron 1,6 millones de artículos científicos; la mayoría de las solicitudes de patentes relacionadas con la IA se publicaron desde 2013. Las empresas representan 26 de las 30 principales Solicitantes de patentes de IA, y las universidades u organizaciones públicas de investigación representan los cuatro restantes.La proporción de artículos científicos a invenciones ha disminuido significativamente de 8:1 en 2010 a 3:1 en 2016, lo que se atribuye a un cambio de la investigación teórica al uso de tecnologías de IA en productos y servicios comerciales. El aprendizaje automático es la técnica de IA dominante divulgada en las patentes y está incluida en más de un tercio de todas las invenciones identificadas (134777 patentes de aprendizaje automático presentadas para un total de 167038 patentes de IA presentadas en 2016), siendo la visión artificial la aplicación funcional más popular. Las patentes relacionadas con la IA no solo revelan técnicas y aplicaciones de IA, sino que a menudo también se refieren a un campo de aplicación o industria. Se identificaron veinte campos de aplicación en 2016 e incluyeron, en orden de magnitud: telecomunicaciones (15 por ciento), transporte (15 por ciento), ciencias biológicas y médicas (12 por ciento), y dispositivos personales, computación e interacción humano-computadora (11 por ciento). Otros sectores incluyeron banca, entretenimiento, seguridad, industria y manufactura, agricultura y redes (incluyendo redes sociales, ciudades inteligentes e Internet de las cosas). IBM tiene la cartera más grande de patentes de IA con 8290 solicitudes de patentes, seguida de Microsoft con 5930 solicitudes de patentes.

Filosofía

Definición de inteligencia artificial

Pensar versus actuar: la prueba de Turing

Alan Turing escribió en 1950: "Propongo considerar la pregunta '¿pueden pensar las máquinas'?" Aconsejó cambiar la pregunta de si una máquina "piensa" a "si es posible o no que una máquina muestre un comportamiento inteligente". Lo único visible es el comportamiento de la máquina, por lo que no importa si la máquina es consciente, o tiene una mente, o si la inteligencia es simplemente una "simulación" y no "la cosa real". Señaló que tampoco sabemos estas cosas sobre otras personas, pero que extendemos una "convención educada" de que en realidad están "pensando". Esta idea forma la base de la prueba de Turing.

Actuar humanamente vs. actuar inteligentemente: agentes inteligentes

El fundador de AI, John McCarthy, dijo: "La inteligencia artificial no es, por definición, una simulación de la inteligencia humana". Russell y Norvig están de acuerdo y critican la prueba de Turing. Escribieron: "Los textos de ingeniería aeronáutica no definen el objetivo de su campo como 'fabricar máquinas que vuelen tan exactamente como palomas que puedan engañar a otras palomas ' ". Otros investigadores y analistas no están de acuerdo y han argumentado que la IA debería simular la inteligencia natural estudiando psicología o neurobiología.

El paradigma del agente inteligente define el comportamiento inteligente en general, sin referencia a los seres humanos. Un agente inteligente es un sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de éxito. Cualquier sistema que tenga un comportamiento dirigido a objetivos puede analizarse como un agente inteligente: algo tan simple como un termostato, tan complejo como un ser humano, así como grandes sistemas como empresas, biomas o naciones. El paradigma del agente inteligente fue ampliamente aceptado durante la década de 1990 y actualmente sirve como la definición del campo.

El paradigma tiene otras ventajas para la IA. Proporciona una manera confiable y científica de probar programas; los investigadores pueden comparar directamente o incluso combinar diferentes enfoques para problemas aislados, preguntando qué agente es mejor para maximizar una "función de objetivo" dada. También les proporciona un lenguaje común para comunicarse con otros campos, como la optimización matemática (que se define en términos de "objetivos") o la economía (que utiliza la misma definición de "agente racional").

Evaluación de enfoques de la IA

Ninguna teoría o paradigma unificador establecido ha guiado la investigación de la IA durante la mayor parte de su historia. El éxito sin precedentes del aprendizaje automático estadístico en la década de 2010 eclipsó todos los demás enfoques (tanto que algunas fuentes, especialmente en el mundo empresarial, usan el término "inteligencia artificial" para referirse a "aprendizaje automático con redes neuronales"). Este enfoque es en su mayoría subsimbólico, limpio, suave y estrecho (ver más abajo). Los críticos argumentan que es posible que las futuras generaciones de investigadores de IA deban revisar estas preguntas.

La IA simbólica y sus límites

La IA simbólica (o "GOFAI") simuló el razonamiento consciente de alto nivel que las personas usan cuando resuelven acertijos, expresan razonamientos legales y hacen matemáticas. Tuvieron mucho éxito en tareas "inteligentes" como álgebra o pruebas de coeficiente intelectual. En la década de 1960, Newell y Simon propusieron la hipótesis de los sistemas de símbolos físicos: "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general".

Sin embargo, el enfoque simbólico fracasó estrepitosamente en muchas tareas que los humanos resuelven con facilidad, como aprender, reconocer un objeto o razonar con sentido común. La paradoja de Moravec es el descubrimiento de que las tareas "inteligentes" de alto nivel eran fáciles para la IA, pero las tareas "instintivas" de bajo nivel eran extremadamente difíciles. El filósofo Hubert Dreyfus había argumentado desde la década de 1960 que la experiencia humana depende del instinto inconsciente en lugar de la manipulación consciente de símbolos, y de tener una "sensación" de la situación, en lugar del conocimiento simbólico explícito. Aunque sus argumentos habían sido ridiculizados e ignorados cuando se presentaron por primera vez, finalmente, la investigación de IA llegó a estar de acuerdo.

El problema no está resuelto: el razonamiento subsimbólico puede cometer muchos de los mismos errores inescrutables que comete la intuición humana, como el sesgo algorítmico. Críticos como Noam Chomsky argumentan que la investigación continua sobre la IA simbólica seguirá siendo necesaria para lograr la inteligencia general, en parte porque la IA subsimbólica es un alejamiento de la IA explicable: puede ser difícil o imposible entender por qué un programa moderno de IA estadística hizo una decisión particular.

Limpio vs desaliñado

Los "limpios" esperan que el comportamiento inteligente se describa utilizando principios simples y elegantes (como la lógica, la optimización o las redes neuronales). Los "Scruffies" esperan que necesariamente requiera resolver una gran cantidad de problemas no relacionados. Este tema se discutió activamente en los años 70 y 80, pero en la década de 1990 los métodos matemáticos y los sólidos estándares científicos se convirtieron en la norma, una transición que Russell y Norvig denominaron "la victoria de los limpios".

Computación suave vs. computación dura

Encontrar una solución demostrablemente correcta u óptima es intratable para muchos problemas importantes. La computación blanda es un conjunto de técnicas, que incluyen algoritmos genéticos, lógica difusa y redes neuronales, que toleran la imprecisión, la incertidumbre, la verdad parcial y la aproximación. La informática blanda se introdujo a finales de los años 80 y los programas de IA más exitosos del siglo XXI son ejemplos de informática blanda con redes neuronales.

IA estrecha frente a general

Los investigadores de IA están divididos sobre si perseguir los objetivos de la inteligencia artificial general y la superinteligencia (IA general) directamente o resolver tantos problemas específicos como sea posible (IA estrecha) con la esperanza de que estas soluciones conduzcan indirectamente a los objetivos a largo plazo del campo General la inteligencia es difícil de definir y medir, y la IA moderna ha tenido éxitos más verificables al centrarse en problemas específicos con soluciones específicas. El subcampo experimental de inteligencia artificial general estudia esta área exclusivamente.

Conciencia de máquina, sensibilidad y mente

La filosofía de la mente no sabe si una máquina puede tener mente, conciencia y estados mentales, en el mismo sentido que los seres humanos. Este problema considera las experiencias internas de la máquina, en lugar de su comportamiento externo. La investigación convencional de IA considera que este problema es irrelevante porque no afecta los objetivos del campo. Stuart Russell y Peter Norvig observan que a la mayoría de los investigadores de IA "no les importa la [filosofía de la IA]; mientras el programa funcione, no les importa si lo llaman simulación de inteligencia o inteligencia real". Sin embargo, la pregunta se ha vuelto central para la filosofía de la mente. También suele ser la cuestión central en cuestión en la inteligencia artificial en la ficción.

Conciencia

David Chalmers identificó dos problemas en la comprensión de la mente, a los que denominó problemas de conciencia "difíciles" y "fáciles". El problema fácil es entender cómo el cerebro procesa las señales, hace planes y controla el comportamiento. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo. El procesamiento de la información humana es fácil de explicar, sin embargo, la experiencia subjetiva humana es difícil de explicar. Por ejemplo, es fácil imaginar a una persona daltónica que ha aprendido a identificar qué objetos en su campo de visión son rojos, pero no está claro qué se necesitaría para que la persona supiera qué aspecto tiene el rojo.

Computacionalismo y funcionalismo

El computacionalismo es la posición en la filosofía de la mente de que la mente humana es un sistema de procesamiento de información y que el pensamiento es una forma de computación. El computacionalismo argumenta que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema de la mente y el cuerpo. Esta posición filosófica se inspiró en el trabajo de investigadores de IA y científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor y Hilary Putnam.

El filósofo John Searle caracterizó esta posición como "IA fuerte": "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que la tienen los seres humanos". Searle contrarresta esta afirmación con su argumento de la habitación china, que intenta demostrar que, incluso si una máquina simula perfectamente el comportamiento humano, no hay razón para suponer que también tiene una mente.

Derechos de los robots

Si una máquina tiene una mente y una experiencia subjetiva, entonces también puede tener sensibilidad (la capacidad de sentir), y si es así, entonces también podría sufrir, y por lo tanto tendría derecho a ciertos derechos. Cualquier derecho hipotético de los robots estaría en un espectro con los derechos de los animales y los derechos humanos. Este tema se ha considerado en la ficción durante siglos y ahora lo está considerando, por ejemplo, el Instituto para el Futuro de California; sin embargo, los críticos argumentan que la discusión es prematura.

Futuro

Superinteligencia

Una superinteligencia, hiperinteligencia o inteligencia sobrehumana, es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. La superinteligencia también puede referirse a la forma o grado de inteligencia que posee dicho agente.

Si la investigación sobre la inteligencia artificial general produjera un software lo suficientemente inteligente, podría reprogramarse y mejorarse a sí mismo. El software mejorado sería aún mejor para mejorarse a sí mismo, lo que llevaría a una automejora recursiva. Su inteligencia aumentaría exponencialmente en una explosión de inteligencia y podría superar dramáticamente a los humanos. El escritor de ciencia ficción Vernor Vinge llamó a este escenario la "singularidad". Debido a que es difícil o imposible conocer los límites de la inteligencia o las capacidades de las máquinas superinteligentes, la singularidad tecnológica es un acontecimiento más allá del cual los acontecimientos son impredecibles o incluso insondables.

El diseñador de robots Hans Moravec, el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro en cyborgs que son más capaces y poderosos que cualquiera de ellos. Esta idea, llamada transhumanismo, tiene raíces en Aldous Huxley y Robert Ettinger.

Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por "Darwin entre las máquinas" de Samuel Butler en 1863, y ampliada por George Dyson en su libro del mismo nombre en 1998.

Riesgos

Desempleo tecnológico

En el pasado, la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero los economistas reconocen que "estamos en un territorio desconocido" con la IA. Una encuesta de economistas mostró desacuerdo sobre si el uso cada vez mayor de robots e inteligencia artificial causará un aumento sustancial en el desempleo a largo plazo, pero en general están de acuerdo en que podría ser un beneficio neto si se redistribuyen las ganancias de productividad. Las estimaciones subjetivas del riesgo varían ampliamente; por ejemplo, Michael Osborne y Carl Benedikt Frey estiman que el 47 % de los empleos en EE. UU. tienen un "alto riesgo" de posible automatización, mientras que un informe de la OCDE clasifica solo el 9 % de los empleos en EE. UU. como de "alto riesgo".

A diferencia de las oleadas anteriores de automatización, muchos trabajos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirma que "vale la pena tomarse en serio la preocupación de que la IA pueda causar a los trabajos de cuello blanco lo que la energía de vapor hizo a los de cuello azul durante la Revolución Industrial". Los trabajos en riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda de trabajo para profesiones relacionadas con el cuidado que van desde la atención médica personal hasta el clero.

Malos actores e IA armada

AI proporciona una serie de herramientas que son particularmente útiles para los gobiernos autoritarios: el software espía inteligente, el reconocimiento facial y el reconocimiento de voz permiten una vigilancia generalizada; dicha vigilancia permite que el aprendizaje automático clasifique a los enemigos potenciales del estado y puede evitar que se escondan; los sistemas de recomendación pueden apuntar con precisión a la propaganda y la información errónea para obtener el máximo efecto; los deepfakes ayudan a producir información errónea; La IA avanzada puede hacer que la toma de decisiones centralizada sea más competitiva con los sistemas liberales y descentralizados, como los mercados.

Los terroristas, los delincuentes y los estados canallas pueden utilizar otras formas de IA armada, como la guerra digital avanzada y las armas letales autónomas. Para 2015, se informó que más de cincuenta países estaban investigando robots de campo de batalla.

La IA de aprendizaje automático también puede diseñar decenas de miles de moléculas tóxicas en cuestión de horas.

Sesgo algorítmico

Los programas de IA pueden volverse sesgados después de aprender de los datos del mundo real. Por lo general, no lo introducen los diseñadores del sistema, sino que lo aprende el programa y, por lo tanto, los programadores a menudo no se dan cuenta de que existe el sesgo. El sesgo puede introducirse inadvertidamente por la forma en que se seleccionan los datos de entrenamiento. También puede surgir de las correlaciones: la IA se usa para clasificar a los individuos en grupos y luego hacer predicciones asumiendo que el individuo se parecerá a otros miembros del grupo. En algunos casos, esta suposición puede ser injusta. Un ejemplo de esto es COMPAS, un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente. ProPublica afirma que es mucho más probable que se sobrestime el nivel de riesgo de reincidencia de los acusados ​​negros asignado por COMPAS que el de los acusados ​​blancos, a pesar de que al programa no se le dijo la raza de los acusados. Otros ejemplos en los que el sesgo algorítmico puede conducir a resultados injustos son cuando la IA se utiliza para la calificación crediticia o la contratación.

Riesgo existencial

La IA superinteligente puede mejorar hasta el punto de que los humanos no puedan controlarla. Esto podría, como dice el físico Stephen Hawking, "significar el fin de la raza humana". El filósofo Nick Bostrom argumenta que la IA lo suficientemente inteligente, si elige acciones basadas en el logro de algún objetivo, exhibirá un comportamiento convergente, como la adquisición de recursos o la protección contra el cierre. Si los objetivos de esta IA no reflejan completamente los de la humanidad, es posible que deba dañar a la humanidad para adquirir más recursos o evitar que se apague, en última instancia, para lograr mejor su objetivo. Concluye que la IA representa un riesgo para la humanidad, por humildes o "amigables" que puedan ser sus objetivos declarados. El politólogo Charles T. Rubin sostiene que "cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia". Los humanos no deben asumir que las máquinas o los robots nos tratarán favorablemente porque no hay una razón a priori para creer que compartirán nuestro sistema de moralidad.

La opinión de los expertos y conocedores de la industria es mixta, con fracciones considerables tanto preocupadas como despreocupadas por el riesgo de una eventual IA con capacidad sobrehumana. Stephen Hawking, el fundador de Microsoft, Bill Gates, el profesor de historia Yuval Noah Harari y el fundador de SpaceX, Elon Musk, han expresado serias dudas sobre el futuro de la IA. Destacados titanes de la tecnología, incluidos Peter Thiel (Amazon Web Services) y Musk, han comprometido más de mil millones de dólares para empresas sin fines de lucro que defienden el desarrollo responsable de la IA, como OpenAI y Future of Life Institute. Mark Zuckerberg (CEO, Facebook) ha dicho que la inteligencia artificial es útil en su forma actual y seguirá ayudando a los humanos. Otros expertos argumentan que los riesgos están lo suficientemente lejos en el futuro como para que no valga la pena investigarlos, o que los humanos serán valiosos desde la perspectiva de una máquina superinteligente. Rodney Brooks, en particular, ha dicho que la IA "malévola" todavía está a siglos de distancia.

Máquinas éticas

La IA amigable son máquinas que han sido diseñadas desde el principio para minimizar los riesgos y tomar decisiones que beneficien a los humanos. Eliezer Yudkowsky, quien acuñó el término, argumenta que desarrollar una IA amigable debería ser una prioridad de investigación más alta: puede requerir una gran inversión y debe completarse antes de que la IA se convierta en un riesgo existencial.

Las máquinas con inteligencia tienen el potencial de usar su inteligencia para tomar decisiones éticas. El campo de la ética de las máquinas proporciona a las máquinas principios y procedimientos éticos para resolver dilemas éticos. La ética de las máquinas también se denomina moralidad de las máquinas, ética computacional o moralidad computacional, y se fundó en un simposio de la AAAI en 2005.

Otros enfoques incluyen los "agentes morales artificiales" de Wendell Wallach y los tres principios de Stuart J. Russell para desarrollar máquinas demostrablemente beneficiosas.

IA centrada en el ser humano

La inteligencia artificial centrada en el ser humano (HCAI) es un conjunto de procesos para diseñar aplicaciones que sean confiables, seguras y confiables. Estos amplían los procesos de diseño de la experiencia del usuario, como la observación del usuario y las entrevistas. Otros procesos incluyen discusiones con las partes interesadas, pruebas de usabilidad, refinamiento iterativo y evaluación continua en el uso de sistemas que emplean IA y algoritmos de aprendizaje automático. La IA centrada en el ser humano se manifiesta en productos que están diseñados para amplificar, aumentar, empoderar y mejorar el rendimiento humano. Estos productos aseguran altos niveles de control humano y altos niveles de automatización.

La investigación de HCAI incluye estructuras de gobierno que incluyen culturas de seguridad dentro de las organizaciones y supervisión independiente por parte de grupos experimentados que revisan planes para nuevos proyectos, evaluación continua del uso y análisis retrospectivo de fallas.

El aumento de HCAI es visible en temas como IA explicable, transparencia, seguimiento de auditoría, equidad, confiabilidad y sistemas controlables.

Regulación

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); por lo tanto, está relacionado con la regulación más amplia de los algoritmos. El panorama regulatorio y de políticas para la IA es un problema emergente en las jurisdicciones a nivel mundial. Entre 2016 y 2020, más de 30 países adoptaron estrategias específicas para la IA. La mayoría de los estados miembros de la UE habían lanzado estrategias nacionales de IA, al igual que Canadá, China, India, Japón, Mauricio, la Federación Rusa, Arabia Saudita, Emiratos Árabes Unidos, EE. UU. y Vietnam. Otros estaban en proceso de elaborar su propia estrategia de IA, incluidos Bangladesh, Malasia y Túnez. La Alianza Global sobre Inteligencia Artificial se lanzó en junio de 2020, indicando la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza del público en la tecnología. Henry Kissinger, Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 pidiendo una comisión gubernamental para regular la IA.

En ficción

Los seres artificiales con capacidad de pensamiento han aparecido como dispositivos narrativos desde la antigüedad y han sido un tema persistente en la ciencia ficción.

Un tropo común en estas obras comenzó con Frankenstein de Mary Shelley, donde una creación humana se convierte en una amenaza para sus amos. Esto incluye trabajos como 2001: A Space Odyssey de Arthur C. Clarke y Stanley Kubrick (ambos de 1968), con HAL 9000, la computadora asesina a cargo de la nave espacial Discovery One, así como The Terminator (1984) y The Matrix (1999).). En contraste, los raros robots leales como Gort de The Day the Earth Stood Still (1951) y Bishop de Aliens (1986) son menos prominentes en la cultura popular.

Isaac Asimov introdujo las Tres leyes de la robótica en muchos libros e historias, sobre todo en la serie "Multivac" sobre una computadora superinteligente del mismo nombre. Las leyes de Asimov a menudo se mencionan durante las discusiones sobre ética de las máquinas; Si bien casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad.

El transhumanismo (la fusión de humanos y máquinas) se explora en el manga Ghost in the Shell y en la serie de ciencia ficción Dune.

Varias obras utilizan la IA para obligarnos a enfrentar la pregunta fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por lo tanto, de sufrir. Esto aparece en RUR de Karel Čapek, las películas AI Artificial Intelligence y Ex Machina, así como la novela ¿Sueñan los androides con ovejas eléctricas?, por Philip K. Dick. Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial.