Ética de la inteligencia artificial

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La ética de la inteligencia artificial es la rama de la ética de la tecnología específica de los sistemas de inteligencia artificial. A veces se divide en una preocupación por el comportamiento moral de los humanos cuando diseñan, fabrican, usan y tratan sistemas artificialmente inteligentes, y una preocupación por el comportamiento de las máquinas, en la ética de las máquinas. También incluye el tema de una posible singularidad debido a la IA superinteligente.

Enfoques de los campos de la ética

Ética de los robots

El término "ética de los robots" (a veces "roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen, usan y tratan a los robots. La ética de los robots se cruza con la ética de la IA. Los robots son máquinas físicas, mientras que la IA solo puede ser software. No todos los robots funcionan a través de sistemas de IA y no todos los sistemas de IA son robots. La ética de los robots considera cómo se pueden usar las máquinas para dañar o beneficiar a los humanos, su impacto en la autonomía individual y sus efectos en la justicia social.

Ética de la máquina

La ética de las máquinas (o moralidad de las máquinas) es el campo de investigación relacionado con el diseño de Agentes Morales Artificiales (AMA), robots o computadoras artificialmente inteligentes que se comportan moralmente o como si fueran morales. Para dar cuenta de la naturaleza de estos agentes, se ha sugerido considerar ciertas ideas filosóficas, como las caracterizaciones estándar de agencia, agencia racional, agencia moral y agencia artificial, que están relacionadas con el concepto de AMA.

Isaac Asimov consideró el tema en la década de 1950 en su Yo, robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las Tres Leyes de la Robótica para gobernar los sistemas de inteligencia artificial. Luego, gran parte de su trabajo lo dedicó a probar los límites de sus tres leyes para ver dónde se romperían o dónde crearían un comportamiento paradójico o inesperado. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. Más recientemente, académicos y muchos gobiernos han cuestionado la idea de que la propia IA pueda rendir cuentas. Un panel convocado por el Reino Unido en 2010 revisó las leyes de Asimov para aclarar que la IA es responsabilidad de sus fabricantes o de su propietario/operador.

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes de la Ecole Polytechnique Fédérale de Lausanne en Suiza, los robots que fueron programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitando uno venenoso) eventualmente aprendieron a mentirse unos a otros. otro en un intento de acaparar el recurso beneficioso.

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a dichos robots se les otorga cierto grado de funciones autónomas. La Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este problema. Señalan programas como el dispositivo de adquisición de lenguaje que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en que algunas computadoras sean más inteligentes que los humanos. Él llama a esto "la Singularidad". Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. Esto es discutido por una filosofía llamada singularitarismo. El Instituto de Investigación de Inteligencia de Máquinas ha sugerido la necesidad de construir una "IA amigable", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

Hay discusión sobre la creación de pruebas para ver si una IA es capaz de tomar decisiones éticas. Alan Winfield concluye que la prueba de Turing tiene fallas y que el requisito para que una IA pase la prueba es demasiado bajo. Una prueba alternativa propuesta es la llamada Prueba ética de Turing, que mejoraría la prueba actual al hacer que varios jueces decidan si la decisión de la IA es ética o no ética.

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones.. Discutieron la posibilidad y la medida en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y en qué medida podrían usar tales habilidades para representar una posible amenaza o peligro. Señalaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir objetivos de forma independiente para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado una "inteligencia de cucaracha".

Sin embargo, hay una tecnología en particular que realmente podría hacer realidad la posibilidad de robots con competencia moral. En un artículo sobre la adquisición de valores morales por parte de los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos, cuyo objetivo es procesar la información de manera similar a los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimientos de una forma humana única. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si terminarían desarrollando también "debilidades" humanas: egoísmo, una actitud pro-supervivencia, vacilación, etc.

En Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots lo correcto y lo incorrecto probablemente mejorarán la comprensión de la ética humana al motivar a los humanos a abordar las brechas en la teoría normativa moderna y al proporcionar una plataforma para la investigación experimental. Como ejemplo, ha introducido a los éticos normativos en el controvertido tema de qué algoritmos de aprendizaje específicos usar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis),mientras que Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que cambien las normas de cualquier época y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.

Según un informe de 2019 del Centro para la Gobernanza de la IA de la Universidad de Oxford, el 82 % de los estadounidenses cree que los robots y la IA deben gestionarse con cuidado. Las preocupaciones citadas iban desde cómo se usa la IA en la vigilancia y en la difusión de contenido falso en línea (conocido como falsificación profunda cuando incluyen imágenes de video manipuladas y audio generado con la ayuda de la IA) hasta ataques cibernéticos, infracciones a la privacidad de los datos, sesgo en la contratación, vehículos autónomos y drones que no requieren un controlador humano.

Principios éticos de la inteligencia artificial

En la revisión de 84 lineamientos éticos para AI se encontraron 11 grupos de principios: transparencia, justicia y equidad, no maleficencia, responsabilidad, privacidad, beneficencia, libertad y autonomía, confianza, sostenibilidad, dignidad, solidaridad.

Luciano Floridi y Josh Cowls crearon un marco ético de los principios de la IA establecidos por cuatro principios de la bioética (beneficencia, no maleficencia, autonomía y justicia) y un principio habilitador adicional de la IA: la explicabilidad.

Transparencia, rendición de cuentas y código abierto

Bill Hibbard argumenta que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de IA. OpenAI es una empresa de investigación de IA sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de IA de código abierto.

Desafortunadamente, hacer que el código sea de código abierto no lo hace comprensible, lo que según muchas definiciones significa que el código de IA no es transparente. El IEEE tiene un esfuerzo de estandarización sobre la transparencia de la IA. El esfuerzo de IEEE identifica múltiples escalas de transparencia para diferentes usuarios. Además, existe la preocupación de que liberar la capacidad total de la IA contemporánea a algunas organizaciones pueda ser un mal público, es decir, causar más daño que bien. Por ejemplo, Microsoft ha expresado su preocupación por permitir el acceso universal a su software de reconocimiento facial, incluso para aquellos que pueden pagarlo. Microsoft publicó un blog extraordinario sobre este tema, solicitando una regulación gubernamental para ayudar a determinar lo que se debe hacer.

No solo las empresas, sino muchos otros investigadores y defensores de los ciudadanos recomiendan la regulación gubernamental como un medio para garantizar la transparencia y, a través de ella, la responsabilidad humana. Esta estrategia ha resultado controvertida, ya que a algunos les preocupa que disminuya la tasa de innovación. Otros argumentan que la regulación conduce a una estabilidad sistémica más capaz de apoyar la innovación a largo plazo. La OCDE, la ONU, la UE y muchos países están trabajando actualmente en estrategias para regular la IA y encontrar los marcos legales apropiados.

El 26 de junio de 2019, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG) de la Comisión Europea publicó sus “Recomendaciones de política e inversión para una Inteligencia Artificial confiable”. Este es el segundo resultado de AI HLEG, después de la publicación en abril de 2019 de las "Pautas éticas para una IA confiable". Las recomendaciones AI HLEG de junio cubren cuatro temas principales: los seres humanos y la sociedad en general, la investigación y la academia, el sector privado y el sector público. La Comisión Europea afirma que "las recomendaciones de HLEG reflejan una apreciación de las oportunidades de las tecnologías de IA para impulsar el crecimiento económico, la prosperidad y la innovación, así como los riesgos potenciales involucrados" y afirma que la UE tiene como objetivo liderar la formulación de políticas que rigen la IA. internacionalmente.Para evitar daños, además de la regulación, las organizaciones que implementan IA deben desempeñar un papel central en la creación e implementación de IA confiable en línea con los principios de IA confiable y asumir la responsabilidad para mitigar los riesgos.

Desafíos éticos

Sesgos en los sistemas de IA

La IA se ha vuelto cada vez más inherente a los sistemas de reconocimiento facial y de voz. Algunos de estos sistemas tienen aplicaciones comerciales reales e impactan directamente a las personas. Estos sistemas son vulnerables a sesgos y errores introducidos por sus creadores humanos. Además, los datos utilizados para entrenar estos sistemas de IA pueden tener sesgos. Por ejemplo, los algoritmos de reconocimiento facial creados por Microsoft, IBM y Face++ tenían sesgos a la hora de detectar el género de las personas; estos sistemas de inteligencia artificial pudieron detectar el género de los hombres blancos con mayor precisión que el género de los hombres de piel más oscura. Además, un estudio de 2020 revisó los sistemas de reconocimiento de voz de Amazon, Apple, Google, IBM y Microsoft y descubrió que tienen tasas de error más altas al transcribir las voces de las personas negras que las de las personas blancas.Además, Amazon dejó de usar la contratación y el reclutamiento de IA porque el algoritmo favorecía a los candidatos masculinos sobre los femeninos. Esto se debió a que el sistema de Amazon se entrenó con datos recopilados durante un período de 10 años que provenían principalmente de candidatos masculinos.

El sesgo puede colarse en los algoritmos de muchas maneras. Por ejemplo, Friedman y Nissenbaum identifican tres categorías de sesgo en los sistemas informáticos: sesgo existente, sesgo técnico y sesgo emergente. En el procesamiento del lenguaje natural, pueden surgir problemas del corpus de texto, el material de origen que utiliza el algoritmo para aprender sobre las relaciones entre diferentes palabras.

Grandes empresas como IBM, Google, etc. se han esforzado en investigar y abordar estos sesgos. Una solución para abordar el sesgo es crear documentación para los datos utilizados para entrenar sistemas de IA. La minería de procesos puede ser una herramienta importante para que las organizaciones logren el cumplimiento de las regulaciones de IA propuestas mediante la identificación de errores, el monitoreo de procesos, la identificación de posibles causas raíz para una ejecución incorrecta y otras funciones.

Es probable que el problema del sesgo en el aprendizaje automático se vuelva más significativo a medida que la tecnología se extienda a áreas críticas como la medicina y el derecho, y a medida que más personas sin conocimientos técnicos profundos tengan la tarea de implementarla. Algunos expertos advierten que el sesgo algorítmico ya está generalizado en muchas industrias y que casi nadie está haciendo un esfuerzo por identificarlo o corregirlo. Hay algunas herramientas de código abierto de las sociedades civiles que buscan generar más conciencia sobre la IA sesgada.

Derechos de los robots

Los "derechos de los robots" es el concepto de que las personas deben tener obligaciones morales hacia sus máquinas, similares a los derechos humanos o los derechos de los animales. Se ha sugerido que los derechos de los robots (como el derecho a existir y realizar su propia misión) podrían vincularse con el deber de los robots de servir a la humanidad, de manera análoga a vincular los derechos humanos con los deberes humanos ante la sociedad. Estos podrían incluir el derecho a la vida y la libertad, la libertad de pensamiento y expresión, y la igualdad ante la ley. El tema ha sido considerado por el Instituto para el Futuro y por el Departamento de Comercio e Industria del Reino Unido.

Los expertos no están de acuerdo en cuanto a cuándo serán necesarias leyes específicas y detalladas sobre el tema. Glenn McGee informó que podrían aparecer suficientes robots humanoides para 2020, mientras que Ray Kurzweil fija la fecha en 2029. Otro grupo de científicos reunidos en 2007 supuso que tenían que pasar al menos 50 años antes de que existiera un sistema suficientemente avanzado.

Las reglas para el concurso del Premio Loebner de 2003 contemplaban la posibilidad de que los robots tuvieran derechos propios:

61. Si en un año determinado, una Entrada de código abierto disponible públicamente presentada por la Universidad de Surrey o el Centro de Cambridge gana la Medalla de plata o la Medalla de oro, entonces la Medalla y el Premio en efectivo se otorgarán al organismo responsable de la desarrollo de esa Entrada. Si no se puede identificar a dicho organismo, o si hay desacuerdo entre dos o más reclamantes, la Medalla y el Premio en efectivo se mantendrán en fideicomiso hasta el momento en que la Entrada pueda poseer legalmente, ya sea en los Estados Unidos de América o en el sede del concurso, el Premio en Efectivo y la Medalla de Oro por derecho propio.

En octubre de 2017, la androide Sophia recibió la ciudadanía "honoraria" en Arabia Saudita, aunque algunos consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo. Algunos vieron este gesto como una abierta denigración de los derechos humanos y el estado de derecho.

La filosofía del Sentientismo otorga grados de consideración moral a todos los seres sintientes, principalmente humanos y la mayoría de los animales no humanos. Si la inteligencia artificial o alienígena muestra evidencia de ser consciente, esta filosofía sostiene que se les debe mostrar compasión y otorgarles derechos.

Joanna Bryson ha argumentado que crear IA que requiera derechos es evitable y en sí mismo no sería ético, tanto como una carga para los agentes de IA como para la sociedad humana.

Amenaza a la dignidad humana

Joseph Weizenbaum argumentó en 1976 que la tecnología de inteligencia artificial no debe usarse para reemplazar a las personas en puestos que requieren respeto y cuidado, como:

  • Un representante de servicio al cliente (la tecnología de IA ya se usa hoy en día para los sistemas de respuesta de voz interactivos basados ​​en teléfonos)
  • Una niñera para los ancianos (como lo relata Pamela McCorduck en su libro The Fifth Generation)
  • Un soldado
  • Un juez
  • Un oficial de policía
  • Un terapeuta (como lo propuso Kenneth Colby en los años 70)

Weizenbaum explica que requerimos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados, ya que el sistema de inteligencia artificial no sería capaz de simular la empatía. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos considerando la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que proviene de pensar en nosotros mismos como computadoras".

Pamela McCorduck responde que, hablando en nombre de las mujeres y las minorías, "prefiero arriesgarme con una computadora imparcial", y señala que existen condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan ninguna agenda personal. Sin embargo, Kaplan y Haenlein enfatizan que los sistemas de IA son tan inteligentes como los datos utilizados para entrenarlos, ya que, en esencia, no son más que elegantes máquinas de ajuste de curvas; El uso de IA para respaldar un fallo judicial puede ser muy problemático si los fallos anteriores muestran un sesgo hacia ciertos grupos, ya que esos sesgos se formalizan y arraigan, lo que los hace aún más difíciles de detectar y combatir.

A Weizenbaum también le molestaba que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a ver la mente humana como nada más que un programa de computadora (una posición que ahora se conoce como computacionalismo). Para Weizenbaum, estos puntos sugieren que la investigación de IA devalúa la vida humana.

El fundador de AI, John McCarthy, se opone al tono moralizador de la crítica de Weizenbaum. “Cuando moralizar es tanto vehemente como vago, invita al abuso autoritario”, escribe. Bill Hibbard escribe que "la dignidad humana requiere que nos esforcemos por eliminar nuestra ignorancia sobre la naturaleza de la existencia, y la IA es necesaria para ese esfuerzo".

Responsabilidad de los coches autónomos

A medida que el uso generalizado de automóviles autónomos se vuelve cada vez más inminente, se deben abordar los nuevos desafíos que plantean los vehículos totalmente autónomos. Recientemente, ha habido un debate sobre la responsabilidad legal de la parte responsable si estos autos tienen accidentes. En un informe en el que un automóvil sin conductor atropelló a un peatón, el conductor estaba dentro del automóvil pero los controles estaban totalmente en manos de computadoras. Esto llevó a un dilema sobre quién tuvo la culpa del accidente.

En otro incidente el 18 de marzo de 2018, Elaine Herzberg fue atropellada y asesinada por un Uber autónomo en Arizona. En este caso, el automóvil automatizado fue capaz de detectar automóviles y ciertos obstáculos para navegar de manera autónoma por la calzada, pero no pudo anticipar a un peatón en el medio de la carretera. Esto planteó la cuestión de si el conductor, el peatón, la compañía de automóviles o el gobierno deberían ser considerados responsables de su muerte.

Actualmente, los automóviles autónomos se consideran semiautónomos, lo que requiere que el conductor preste atención y esté preparado para tomar el control si es necesario. Por lo tanto, corresponde a los gobiernos regular al conductor que confía demasiado en las características autónomas. también infórmeles que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los automóviles autónomos se generalicen, estos problemas deben abordarse a través de nuevas políticas.

Armamentización de la inteligencia artificial

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando se les otorga cierto grado de autonomía. El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe que recomienda principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizaría que un operador humano siempre pueda investigar el ' caja negra' y entender el proceso de la cadena de muerte. Sin embargo, una preocupación importante es cómo se implementará el informe. La Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.Algunos investigadores afirman que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones con mayor eficacia.

Dentro de esta última década, ha habido una intensa investigación sobre el poder autónomo con la capacidad de aprender usando las responsabilidades morales asignadas. "Los resultados pueden usarse al diseñar futuros robots militares, para controlar las tendencias no deseadas de asignar responsabilidades a los robots". Desde un punto de vista consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre a quién matar y es por eso que debe haber un marco moral establecido que la IA no pueda anular.

Ha habido una protesta reciente con respecto a la ingeniería de armas de inteligencia artificial que ha incluido ideas de una toma de posesión de la humanidad por parte de un robot. Las armas de IA presentan un tipo de peligro diferente al de las armas controladas por humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar armamento de IA. La Marina de los Estados Unidos anunció recientemente planes para desarrollar armas de drones autónomos, en paralelo con anuncios similares de Rusia y Corea, respectivamente. Debido al potencial de que las armas de IA se vuelvan más peligrosas que las armas operadas por humanos, Stephen Hawking y Max Tegmark firmaron una petición de "Futuro de la vida" para prohibir las armas de IA. El mensaje publicado por Hawking y Tegmark afirma que las armas de IA representan un peligro inmediato y que se requiere acción para evitar desastres catastróficos en el futuro cercano.

"Si alguna de las principales potencias militares sigue adelante con el desarrollo de armas de inteligencia artificial, una carrera armamentista mundial es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov del mañana", dice la petición, que incluye Skype co -el fundador Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de IA.

El físico y astrónomo Royal Sir Martin Rees advirtió sobre casos catastróficos como "robots tontos que se vuelven rebeldes o una red que desarrolla una mente propia". Huw Price, un colega de Rees en Cambridge, ha expresado una advertencia similar de que los humanos podrían no sobrevivir cuando la inteligencia "escapa de las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana.

Con respecto al potencial para el uso militar de sistemas más inteligentes que los humanos, el Proyecto de Filantropía Abierta escribe que estos escenarios "parecen potencialmente tan importantes como los riesgos relacionados con la pérdida de control", pero la investigación que investiga el impacto social a largo plazo de la IA ha pasado relativamente poco tiempo sobre esta preocupación: "esta clase de escenarios no ha sido un foco importante para las organizaciones que han estado más activas en este espacio, como el Instituto de Investigación de Inteligencia de Máquinas (MIRI) y el Instituto del Futuro de la Humanidad (FHI), y parece haber habido menos análisis y debate al respecto".

Algoritmos opacos

Los enfoques como el aprendizaje automático con redes neuronales pueden hacer que las computadoras tomen decisiones que ni ellos ni los humanos que las programaron pueden explicar. Es difícil para las personas determinar si tales decisiones son justas y confiables, lo que puede generar sesgos en los sistemas de inteligencia artificial que no se detectan o que las personas rechacen el uso de dichos sistemas. Esto ha llevado a la defensa y en algunas jurisdicciones a requisitos legales para la inteligencia artificial explicable.

Singularidad

Muchos investigadores han argumentado que, a través de una "explosión de inteligencia", una IA que se mejora a sí misma podría volverse tan poderosa que los humanos no podrían evitar que logre sus objetivos. En su artículo "Cuestiones éticas en inteligencia artificial avanzada" y el libro posterior Superintelligence: Paths, Dangers, Strategies, el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de iniciativa independiente y de hacer sus propios planes y, por lo tanto, puede considerarse más apropiadamente como un agente autónomo. Dado que los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, correspondería a los diseñadores de la superinteligencia especificar sus motivaciones originales. Debido a que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de sus objetivos, podrían surgir muchas consecuencias no deseadas no controladas. Podría matar a todos los demás agentes, persuadirlos para que cambien su comportamiento o bloquear sus intentos de interferencia.

Sin embargo, en lugar de abrumar a la raza humana y llevarnos a nuestra destrucción, Bostrom también ha afirmado que la superinteligencia puede ayudarnos a resolver muchos problemas difíciles, como enfermedades, pobreza y destrucción ambiental, y podría ayudarnos a “mejorarnos” a nosotros mismos.

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. Investigadores de IA como Stuart J. Russell, Bill Hibbard, Roman Yampolskiy, Shannon Vallor, Steven Umbrello y Luciano Floridi han propuesto estrategias de diseño para desarrollar máquinas beneficiosas.

Actores en la ética de la IA

Hay muchas organizaciones preocupadas por la ética y la política de IA, públicas y gubernamentales, así como corporativas y sociales.

Amazon, Google, Facebook, IBM y Microsoft han establecido una organización sin fines de lucro, The Partnership on AI to Benefit People and Society, para formular mejores prácticas sobre tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como plataforma sobre inteligencia artificial.. Apple se unió en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras interactúan con la comunidad científica para traer académicos a la junta.

El IEEE creó una Iniciativa Global sobre Ética de Sistemas Autónomos e Inteligentes que ha estado creando y revisando pautas con la ayuda de aportes públicos, y acepta como miembros a muchos profesionales dentro y fuera de su organización.

Tradicionalmente, el gobierno ha sido utilizado por las sociedades para garantizar que se observe la ética a través de la legislación y la vigilancia. Ahora hay muchos esfuerzos por parte de los gobiernos nacionales, así como de organizaciones gubernamentales y no gubernamentales transnacionales para garantizar que la IA se aplique de manera ética.

Iniciativas intergubernamentales

  • La Comisión Europea cuenta con un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial. El 8 de abril de 2019, este publicó sus 'Pautas éticas para una inteligencia artificial confiable'. La Comisión Europea también tiene una unidad de Innovación y Excelencia en Robótica e Inteligencia Artificial, que publicó un libro blanco sobre excelencia y confianza en la innovación de inteligencia artificial el 19 de febrero de 2020.
  • La OCDE estableció un Observatorio de Políticas de IA de la OCDE.

Iniciativas gubernamentales

  • En los Estados Unidos, la administración de Obama elaboró ​​una hoja de ruta para la política de IA. La Administración Obama publicó dos libros blancos destacados sobre el futuro y el impacto de la IA. En 2019, la Casa Blanca, a través de un memorando ejecutivo conocido como "Iniciativa estadounidense de IA", instruyó al NIST (Instituto Nacional de Estándares y Tecnología) para comenzar a trabajar en el compromiso federal de los estándares de IA (febrero de 2019).
  • En enero de 2020, en los Estados Unidos, la Administración Trump publicó un borrador de orden ejecutiva emitida por la Oficina de Administración y Presupuesto (OMB) sobre "Orientación para la regulación de aplicaciones de inteligencia artificial" ("OMB AI Memorandum"). La orden enfatiza la necesidad de invertir en aplicaciones de IA, aumentar la confianza pública en la IA, reducir las barreras para el uso de la IA y mantener la competitividad de la tecnología de IA estadounidense en un mercado global. Hay un guiño a la necesidad de preocupaciones sobre la privacidad, pero no hay más detalles sobre la aplicación. Los avances de la tecnología estadounidense de inteligencia artificial parecen ser el enfoque y la prioridad. Además, incluso se alienta a las entidades federales a utilizar la orden para eludir las leyes y regulaciones estatales que un mercado podría considerar demasiado onerosas para cumplir.
  • El Computing Community Consortium (CCC) intervino con un borrador de informe de más de 100 páginas: una hoja de ruta comunitaria de 20 años para la investigación de inteligencia artificial en los EE. UU.
  • El Centro de Seguridad y Tecnología Emergente asesora a los legisladores estadounidenses sobre las implicaciones de seguridad de las tecnologías emergentes como la IA.
  • El Partido No Humano se presenta a las elecciones en Nueva Gales del Sur, con políticas en torno a la concesión de derechos a robots, animales y, en general, entidades no humanas cuya inteligencia se ha pasado por alto.
  • En Rusia, el primer "Códice de ética de la inteligencia artificial" ruso para empresas se firmó en 2021. Fue impulsado por el Centro analítico para el gobierno de la Federación Rusa junto con importantes instituciones comerciales y académicas como Sberbank, Yandex, Rosatom, Escuela Superior de Economía, Instituto de Física y Tecnología de Moscú, Universidad ITMO, Nanosemántica, Rostelecom, CIAN y otros.

Iniciativas académicas

  • Hay tres institutos de investigación en la Universidad de Oxford que se centran principalmente en la ética de la IA. El Instituto del Futuro de la Humanidad que se enfoca tanto en la Seguridad de la IA como en la Gobernanza de la IA. El Instituto de Ética en IA, dirigido por John Tasioulas, cuyo objetivo principal, entre otros, es promover la ética de la IA como un campo propiamente dicho en comparación con los campos de ética aplicada relacionados. El Instituto de Internet de Oxford, dirigido por Luciano Floridi, se centra en la ética de las tecnologías de IA y las TIC a corto plazo.
  • El AI Now Institute de NYU es un instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial. Su investigación interdisciplinaria se centra en los temas sesgo e inclusión, trabajo y automatización, derechos y libertades, y seguridad e infraestructura civil.
  • El Instituto de Ética y Tecnologías Emergentes (IEET) investiga los efectos de la IA en el desempleo y la política.
  • El Instituto de Ética en Inteligencia Artificial (IEAI) de la Universidad Técnica de Munich, dirigido por Christoph Lütge, realiza investigaciones en varios dominios, como la movilidad, el empleo, la atención médica y la sostenibilidad.

Organizaciones privadas

  • Liga de la justicia algorítmica
  • Negro en IA
  • Datos para Black Lives
  • Queer en IA

Rol e impacto de la ficción

El papel de la ficción con respecto a la ética de la IA ha sido complejo. Se pueden distinguir tres niveles en los que la ficción ha impactado el desarrollo de la inteligencia artificial y la robótica: Históricamente, la ficción ha estado prefigurando tropos comunes que no solo han influido en los objetivos y visiones de la IA, sino que también han esbozado cuestiones éticas y temores comunes asociados con ella. Durante la segunda mitad del siglo XX y las primeras décadas del XXI, la cultura popular, en particular las películas, las series de televisión y los videojuegos, se han hecho eco con frecuencia de preocupaciones y proyecciones distópicas en torno a cuestiones éticas relacionadas con la IA y la robótica. Recientemente, estos temas también se han tratado cada vez más en la literatura más allá del ámbito de la ciencia ficción. Y, como dice Carme Torras, profesora de investigación de laEl Institut de Robòtica i Informàtica Industrial (Instituto de robótica e informática industrial) de la Universidad Politécnica de Cataluña señala que, en la educación superior, la ciencia ficción también se utiliza cada vez más para enseñar cuestiones éticas relacionadas con la tecnología en los grados tecnológicos.

Historia

Históricamente hablando, la investigación de las implicaciones morales y éticas de las “máquinas pensantes” se remonta al menos a la Ilustración: Leibniz ya plantea la cuestión de si podemos atribuir inteligencia a un mecanismo que se comporta como si fuera un ser sintiente, y Descartes también., quien describe lo que podría considerarse una versión temprana de la prueba de Turing.

El período romántico ha imaginado varias veces criaturas artificiales que escapan del control de su creador con terribles consecuencias, la más famosa en Frankenstein de Mary Shelley. Sin embargo, la preocupación generalizada por la industrialización y la mecanización en el siglo XIX y principios del XX trajo implicaciones éticas de desarrollos técnicos desquiciados al frente de la ficción: RUR - Rossum's Universal Robots, el juego de Karel Čapek de robots sensibles dotados de emociones utilizados como mano de obra esclava es no solo se le atribuye la invención del término 'robot' (derivado de la palabra checa para trabajos forzados, robota), sino que también fue un éxito internacional después de su estreno en 1921. La obra de George Bernard Shaw Back to Methuselah, publicado en 1921, cuestiona en un momento la validez de las máquinas pensantes que actúan como humanos; La película Metrópolis de Fritz Lang de 1927 muestra a un androide que lidera el levantamiento de las masas explotadas contra el régimen opresivo de una sociedad tecnocrática.

Impacto en el desarrollo tecnológico

Si bien la anticipación de un futuro dominado por una tecnología potencialmente indomable ha alimentado la imaginación de escritores y cineastas durante mucho tiempo, una pregunta ha sido analizada con menos frecuencia, a saber, en qué medida la ficción ha desempeñado un papel como fuente de inspiración para el desarrollo tecnológico. Se ha documentado, por ejemplo, que el joven Alan Turing vio y apreció la obra de teatro Back to Methuselah de GB Shaw en 1933 (solo 3 años antes de la publicación de su primer artículo seminal que sentó las bases para la computadora digital), y probablemente Al menos han sido conscientes de obras de teatro como RUR, que fue un éxito internacional y traducida a muchos idiomas.

También se podría preguntar qué papel desempeñó la ciencia ficción en el establecimiento de los principios y las implicaciones éticas del desarrollo de la IA: Isaac Asimov conceptualizó sus Tres leyes de la robótica en el cuento de 1942 “Runaround”, parte de la colección de cuentos I, Robot; El corto de Arthur C. Clarke “El centinela”, en el que se basa la película de Stanley Kubrick 2001: Una odisea del espacio, fue escrito en 1948 y publicado en 1952. Otro ejemplo (entre muchos otros) serían los numerosos cuentos y novelas de Philip K. Dick. – en particular, ¿los androides sueñan con ovejas eléctricas? , publicado en 1968, y con su propia versión de una prueba de Turing, la prueba de Voight-Kampff, para medir las respuestas emocionales de los androides indistinguibles de los humanos. La novela más tarde se convirtió en la base de la influyente película de 1982 Blade Runner de Ridley Scott.

La ciencia ficción ha estado lidiando con las implicaciones éticas de los desarrollos de IA durante décadas y, por lo tanto, proporcionó un modelo para los problemas éticos que podrían surgir una vez que se haya logrado algo similar a la inteligencia artificial general: la película Her de Spike Jonze de 2013 muestra lo que puede suceder si un usuario cae en enamora con la seductora voz del sistema operativo de su smartphone; Ex Machina, por otro lado, plantea una pregunta más difícil: si nos enfrentamos a una máquina claramente reconocible, humana por un rostro y una voz empática y sensual, ¿seguiríamos siendo capaces de establecer una conexión emocional, seguir siendo seducidos por ¿eso? (La película se hace eco de un tema ya presente dos siglos antes, en el cuento de 1817 “The Sandmann” de ETA Hoffmann).

El tema de la coexistencia con seres sintientes artificiales también es el tema de dos novelas recientes: Máquinas como yo de Ian McEwan, publicada en 2019, involucra (entre muchas otras cosas) un triángulo amoroso que involucra a una persona artificial y a una pareja humana. Klara and the Sun del premio Nobel Kazuo Ishiguro, publicado en 2021, es el relato en primera persona de Klara, una 'AF' (amiga artificial), que intenta, a su manera, ayudar a la niña con la que vive, quien, después de haber sido 'levantado' (es decir, haber sido sometido a mejoras genéticas), padece una extraña enfermedad.

Series de Televisión

Si bien las cuestiones éticas relacionadas con la IA han aparecido en la literatura y los largometrajes de ciencia ficción durante décadas, el surgimiento de las series de televisión como género que permite tramas argumentales más largas y complejas y el desarrollo de personajes ha dado lugar a algunas contribuciones significativas que se ocupan de las implicaciones éticas. de tecnología. La serie sueca Real Humans (2012-2013) abordó las complejas consecuencias éticas y sociales vinculadas a la integración de seres sintientes artificiales en la sociedad. La serie de antología de ciencia ficción distópica británica Black Mirror (2013-2019) fue particularmente notable por experimentar con desarrollos ficticios distópicos vinculados a una amplia variedad de desarrollos tecnológicos recientes. Tanto la serie francesa Osmosis (2020) como la serie británicaThe One aborda la cuestión de qué puede pasar si la tecnología trata de encontrar la pareja ideal para una persona. Varios episodios de la serie de Netflix Love, Death+Robots han imaginado escenas de robots y humanos viviendo juntos. El más representativo de ellos es S02 E01, muestra cuán malas pueden ser las consecuencias cuando los robots se salen de control si los humanos dependen demasiado de ellos en sus vidas.

Visiones de futuro en la ficción y los juegos

La película The Thirteenth Floor sugiere un futuro donde las consolas de juegos de computadora crean mundos simulados con habitantes conscientes con el propósito de entretener. La película The Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo. El cuento "The Planck Dive" sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar y la distinción relevante entre los tipos de software es sensible y no sensible. La misma idea se puede encontrar en el Holograma médico de emergencia de Starship Voyager, que es una copia aparentemente consciente de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman, quien, por los mejores motivos, ha creado el sistema para brindar asistencia médica en caso de emergencias. Las películas Bicentennial Man e AI tratan sobre la posibilidad de robots sensibles que puedan amar. I, Robot exploró algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever posibles consecuencias poco éticas de la creación de computadoras sensibles.

La ética de la inteligencia artificial es uno de varios temas centrales en la serie de juegos Mass Effect de BioWare. Explora el escenario de una civilización que crea accidentalmente IA a través de un rápido aumento en el poder computacional a través de una red neuronal a escala global. Este evento provocó un cisma ético entre aquellos que sintieron que otorgar derechos orgánicos a los recién conscientes Geth era apropiado y aquellos que continuaron viéndolos como maquinaria desechable y lucharon para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema recurrente a lo largo de la historia.

"Detroit: Become Human" es uno de los videojuegos más famosos que discute la ética de la inteligencia artificial recientemente. Quantic Dream diseñó los capítulos del juego de una manera muy innovadora, que utilizó historias interactivas para brindar a los jugadores una mejor experiencia de juego inmersiva. Los jugadores manipularán a tres hombres biónicos despiertos diferentes, frente a diferentes eventos para tomar diferentes decisiones para lograr el propósito de cambiar la visión humana del grupo biónico y las diferentes elecciones darán como resultado diferentes finales. Este es uno de los pocos juegos que pone a los jugadores en la perspectiva biónica, lo que les permite considerar mejor los derechos e intereses de los robots una vez que se crea una verdadera inteligencia artificial.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad, como se enfatiza en los debates "Cosmista" y "Terrano" iniciados por Hugo de Garis y Kevin Warwick. Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.

Los expertos de la Universidad de Cambridge han argumentado que la IA se presenta en la ficción y la no ficción abrumadoramente como racialmente blanca, en formas que distorsionan las percepciones de sus riesgos y beneficios.

Contenido relacionado

Neuroética

La neuroética se refiere a dos campos de estudio relacionados: lo que la filósofa Adina Roskies ha llamado la ética de la neurociencia y la neurociencia de...

Codicia

La codicia es un anhelo descontrolado de aumentar la adquisición o el uso de ganancias materiales (ya sea comida, dinero, tierra o posesiones...

Aborto selectivo por sexo

El aborto selectivo por sexo es la práctica de interrumpir un embarazo en función del sexo previsto del bebé. El aborto selectivo de fetos femeninos es...
Más resultados...
Tamaño del texto:
Copiar