Inteligencia artificial amigable

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
AI en beneficio de la humanidad
La

Inteligencia artificial amigable (también IA amigable o FAI) es una inteligencia artificial general (AGI) hipotética que tendría un efecto positivo (benigno) efecto sobre la humanidad o al menos alinearse con los intereses humanos o contribuir a fomentar la mejora de la especie humana. Es parte de la ética de la inteligencia artificial y está estrechamente relacionada con la ética de las máquinas. Mientras que la ética de las máquinas se preocupa por cómo debe comportarse un agente con inteligencia artificial, la investigación amigable sobre inteligencia artificial se centra en cómo lograr en la práctica este comportamiento y garantizar que esté adecuadamente restringido.

Etimología y uso

Eliezer Yudkowsky, investigador de AI y creador del término

El término fue acuñado por Eliezer Yudkowsky, mejor conocido por popularizar la idea, para hablar de agentes artificiales superinteligentes que implementan de manera confiable los valores humanos. El principal libro de texto sobre inteligencia artificial de Stuart J. Russell y Peter Norvig, Inteligencia artificial: un enfoque moderno, describe la idea:

Yudkowsky (2008) va en más detalle sobre cómo diseñar un Friendly AI. Afirma que la amabilidad (un deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer tanto que sus propios diseños pueden ser imperfectos, y que el robot aprenderá y evolucionará con el tiempo. Así, el desafío es uno de diseño de mecanismos, definir un mecanismo para la evolución de los sistemas de IA bajo un sistema de cheques y equilibrios, y dar a los sistemas funciones de utilidad que seguirán siendo amistosos ante esos cambios.

'Amigable' se utiliza en este contexto como terminología técnica y selecciona agentes que son seguros y útiles, no necesariamente aquellos que son "amigables" en el sentido coloquial. El concepto se invoca principalmente en el contexto de discusiones sobre agentes artificiales que se mejoran recursivamente y que rápidamente explotan en inteligencia, con el argumento de que esta tecnología hipotética tendría un impacto grande, rápido y difícil de controlar en la sociedad humana.

Riesgos de una IA hostil

Las raíces de la preocupación por la inteligencia artificial son muy antiguas. Kevin LaGrandeur demostró que los peligros específicos de la IA se pueden ver en la literatura antigua sobre sirvientes humanoides artificiales como el golem o los proto-robots de Gerbert de Aurillac y Roger Bacon. En esas historias, la extrema inteligencia y el poder de estas creaciones humanoides chocan con su condición de esclavos (que por naturaleza son vistos como subhumanos) y causan conflictos desastrosos. En 1942, estos temas llevaron a Isaac Asimov a crear las "Tres leyes de la robótica", principios integrados en todos los robots de su ficción, con la intención de evitar que se volvieran contra sus creadores o permitirles llegar a su destino. dañar.

En los tiempos modernos, a medida que la perspectiva de una IA superinteligente se acerca, el filósofo Nick Bostrom ha dicho que los sistemas de IA superinteligentes con objetivos que no están alineados con la ética humana son intrínsecamente peligrosos a menos que se tomen medidas extremas para garantizar la seguridad de la humanidad. Lo expresó de esta manera:

Básicamente debemos asumir que una 'superinteligencia' sería capaz de alcanzar cualquier objetivo que tenga. Por lo tanto, es extremadamente importante que las metas que le otorgamos, y todo su sistema de motivación, sean 'humanas amistosas. '

En 2008, Eliezer Yudkowsky pidió la creación de una "IA amigable" para mitigar el riesgo existencial de la inteligencia artificial avanzada. Explica: "La IA no te odia ni te ama, pero estás hecho de átomos que puede utilizar para otra cosa".

Steve Omohundro dice que un sistema de IA suficientemente avanzado, a menos que se contrarreste explícitamente, exhibirá una serie de "impulsos" básicos, como la adquisición de recursos, la autoconservación y la superación personal continua, debido a la La naturaleza intrínseca de cualquier sistema impulsado por objetivos y que estos impulsos, "sin precauciones especiales", harán que la IA muestre un comportamiento no deseado.

Alexander Wissner-Gross dice que las IA impulsadas a maximizar su futura libertad de acción (o entropía de la ruta causal) podrían considerarse amigables si su horizonte de planificación es más largo que un cierto umbral, y hostiles si su horizonte de planificación es más corto que ese umbral..

Luke Muehlhauser, que escribe para el Machine Intelligence Research Institute, recomienda que los investigadores de ética de las máquinas adopten lo que Bruce Schneier ha llamado la "mentalidad de seguridad": en lugar de pensar en cómo funcionará un sistema, imagine cómo podría funcionar. fallar. Por ejemplo, sugiere que incluso una IA que sólo haga predicciones precisas y se comunique a través de una interfaz de texto podría causar daños no deseados.

En 2014, Luke Muehlhauser y Nick Bostrom subrayaron la necesidad de una "IA amigable"; sin embargo, las dificultades para diseñar un ambiente 'amistoso' La superinteligencia, por ejemplo mediante la programación del pensamiento moral contrafactual, son considerables.

Volición coherente extrapolada

Yudkowsky avanza el modelo de Volición Coherente Extrapolada (CEV). Según él, nuestra volición coherente extrapolada es “nuestro deseo si supiéramos más, pensáramos más rápido, fuéramos más las personas que deseamos ser, hubiéramos crecido más juntos; donde la extrapolación converge en lugar de divergir, donde nuestros deseos son coherentes en lugar de interferir; extrapolado como queremos que extrapolado, interpretado como queremos que interpretado".

En lugar de que una IA amigable sea diseñada directamente por programadores humanos, debe ser diseñada por una "IA semilla" programado para estudiar primero la naturaleza humana y luego producir la IA que la humanidad desearía, si se le diera suficiente tiempo y conocimiento, para llegar a una respuesta satisfactoria. La apelación a un objetivo a través de la naturaleza humana contingente (quizá expresada, para fines matemáticos, en la forma de una función de utilidad u otro formalismo teórico de la decisión), como criterio último de "amistad", es una respuesta. al problema metaético de definir una moral objetiva; La volición extrapolada pretende ser lo que la humanidad objetivamente desearía, considerando todas las cosas, pero sólo puede definirse en relación con las cualidades psicológicas y cognitivas de la humanidad actual no extrapolada.

Otros enfoques

Steve Omohundro ha propuesto un "andamio" enfoque para la seguridad de la IA, en el que una generación de IA demostrablemente segura ayuda a construir la siguiente generación demostrablemente segura.

Seth Baum sostiene que el desarrollo de inteligencia artificial o inteligencia artificial general segura y socialmente beneficiosa es una función de la psicología social de las comunidades de investigación de IA y, por lo tanto, puede verse limitado por medidas extrínsecas y motivado por medidas intrínsecas. Las motivaciones intrínsecas pueden fortalecerse cuando los mensajes resuenan entre los desarrolladores de IA; Baum sostiene que, por el contrario, "los mensajes existentes sobre la IA beneficiosa no siempre están bien formulados". Baum aboga por "relaciones de cooperación y un marco positivo para los investigadores de IA" y advierte contra caracterizar a los investigadores de IA como "que no quieren perseguir diseños beneficiosos".

En su libro Human Compatible, el investigador de IA Stuart J. Russell enumera tres principios para guiar el desarrollo de máquinas beneficiosas. Destaca que estos principios no deben codificarse explícitamente en las máquinas; más bien, están destinados a desarrolladores humanos. Los principios son los siguientes:

1. El único objetivo de la máquina es maximizar la realización de las preferencias humanas.

2. La máquina es inicialmente incierta sobre cuáles son esas preferencias.

3. La fuente definitiva de información sobre las preferencias humanas es el comportamiento humano.

Las "preferencias" Russell se refiere a "lo abarcan todo; cubren todo lo que podría interesarle, arbitrariamente en un futuro lejano." De manera similar, el "comportamiento" incluye cualquier elección entre opciones, y la incertidumbre es tal que se debe asignar cierta probabilidad, que puede ser bastante pequeña, a cada preferencia humana lógicamente posible.

Política pública

James Barrat, autor de Nuestra invención final, sugirió que "se debe crear una asociación público-privada para reunir a los creadores de IA para compartir ideas sobre seguridad, algo así como la Conferencia Internacional Agencia de Energía Atómica, pero en asociación con corporaciones." Insta a los investigadores de IA a convocar una reunión similar a la Conferencia de Asilomar sobre ADN recombinante, en la que se discutieron los riesgos de la biotecnología.

John McGinnis anima a los gobiernos a acelerar la investigación amigable de la IA. Debido a que los objetivos de una IA amigable no son necesariamente eminentes, sugiere un modelo similar al de los Institutos Nacionales de Salud, donde "paneles de revisión por pares de científicos informáticos y cognitivos examinarían proyectos y elegirían aquellos que están diseñados para hacer avanzar la IA". y garantizar que dichos avances vayan acompañados de salvaguardias adecuadas." McGinnis considera que la revisión por pares es mejor "que la regulación para abordar cuestiones técnicas que no es posible captar mediante mandatos burocráticos". McGinnis señala que su propuesta contrasta con la del Machine Intelligence Research Institute, que generalmente apunta a evitar la participación del gobierno en la IA amigable.

Según Gary Marcus, la cantidad anual de dinero que se gasta en desarrollar la moralidad de las máquinas es pequeña.

Crítica

Algunos críticos creen que tanto la IA a nivel humano como la superinteligencia son poco probables y que, por lo tanto, la IA amigable es poco probable. En un artículo de The Guardian, Alan Winfield compara la inteligencia artificial a nivel humano con los viajes más rápidos que la luz en términos de dificultad, y afirma que si bien debemos ser "cautelosos y preparados" para poder viajar más rápido que la luz. Dado lo que está en juego, "no es necesario que nos obsesionemos"; sobre los riesgos de la superinteligencia. Boyles y Joaquin, por otro lado, sostienen que la propuesta de Luke Muehlhauser y Nick Bostrom de crear IA amigables parece sombría. Esto se debe a que Muehlhauser y Bostrom parecen sostener la idea de que las máquinas inteligentes podrían programarse para pensar de manera contrafactual sobre los valores morales que los seres humanos habrían tenido. En un artículo de AI & Society, Boyles y Joaquin sostienen que tales IA no serían tan amigables considerando lo siguiente: la cantidad infinita de condiciones contrafácticas antecedentes que tendrían que programarse en una máquina, la dificultad de cobrar el conjunto de valores morales... es decir, aquellos que son más ideales que los que los seres humanos poseen en la actualidad, y la aparente desconexión entre los antecedentes contrafácticos y el valor ideal consecuente.

Algunos filósofos afirman que cualquier pensamiento verdaderamente "racional" agente, ya sea artificial o humano, será naturalmente benévolo; Desde este punto de vista, las salvaguardias deliberadas diseñadas para producir una IA amigable podrían ser innecesarias o incluso perjudiciales. Otros críticos cuestionan si es posible que una inteligencia artificial sea amigable. Adam Keiper y Ari N. Schulman, editores de la revista de tecnología The New Atlantis, dicen que será imposible garantizar jamás unas relaciones "amigables" comportamiento en las IA porque los problemas de complejidad ética no cederán ante los avances del software o los aumentos en la potencia informática. Escriben que los criterios en los que se basan las teorías amigables de la IA funcionan "sólo cuando uno no sólo tiene grandes poderes de predicción sobre la probabilidad de innumerables resultados posibles, sino también certeza y consenso sobre cómo se valoran los diferentes resultados".

Contenido relacionado

Central eléctrica del lado del banco

Bankside Power Station es una central generadora de electricidad fuera de servicio ubicada en la orilla sur del río Támesis, en el área de Bankside del...

F Sharp (lenguaje de programación)

F# es un lenguaje de programación funcional primero, de propósito general, fuertemente tipado y multiparadigma que abarca funcionalidad, imperativo y...

Alternador pulsado compensado

Un alternador pulsado compensado, también conocido por el acrónimo compulsator, es una forma de fuente de...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save