Leyes de la robótica
Leyes de la robótica son cualquier conjunto de leyes, reglas o principios que pretenden ser un marco fundamental para sustentar el comportamiento de los robots diseñados para tener un grado de autonomía. Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción y las películas y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial.
El conjunto de leyes más conocido son los escritos por Isaac Asimov en la década de 1940, o basados en ellos, pero los investigadores han propuesto otros conjuntos de leyes en las décadas posteriores.
Las "tres leyes de la robótica"
de Isaac AsimovEl conjunto de leyes más conocido son las "Tres leyes de la robótica" de Isaac Asimov. Estos fueron introducidos en su cuento de 1942 "Runaround", aunque fueron presagiados en algunas historias anteriores. Las Tres Leyes son:
- Un robot no puede herir a un ser humano o, a través de la inacción, permitir que un ser humano venga a perjudicar.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entrarían en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre y cuando tal protección no contravenga las Leyes Primera o Segunda.
En "El conflicto evitable" las máquinas generalizan la Primera Ley en el sentido de:
- Ninguna máquina puede dañar a la humanidad; o, a través de la inacción, permitir que la humanidad venga a perjudicar.
Esto se perfeccionó al final de Fundación y Tierra, se introdujo una ley cero, y las tres originales se reescribieron adecuadamente como subordinadas a ella:
- Un robot no puede herir a la humanidad, o, por inacción, permitir que la humanidad venga a perjudicar.
Existen adaptaciones y extensiones basadas en este marco. A partir de 2021 siguen siendo un "dispositivo ficticio".
Leyes adicionales
Aparte de Asimov, otros autores a menudo han creado leyes adicionales.
La novela de Lyuben Dilov de 1974, El camino de Ícaro (también conocida como El viaje de Ícaro) introdujo una cuarta ley de la robótica: "Un robot debe establecer su identidad como robot en todos los casos." Dilov explica así la cuarta salvaguardia: "La última Ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma lo más humana posible. Y a los malentendidos resultantes..."
Nikola Kesarovski introdujo una quinta ley en su cuento "La quinta ley de la robótica". Esta quinta ley dice: "Un robot debe saber que es un robot". La trama gira en torno a un asesinato donde la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme que no estableció por sí mismo que se trataba de un robot. La historia fue reseñada por Valentin D. Ivanov en la revista web de reseñas de SFF The Portal.
Para la antología tributo de 1986, Foundation's Friends, Harry Harrison escribió una historia titulada "La cuarta ley de la robótica". Esta Cuarta Ley establece: "Un robot debe reproducirse. Siempre que dicha reproducción no interfiera con la Primera, Segunda o Tercera Ley."
En 2013 Hutan Ashrafian propuso una ley adicional que consideraba el papel de la inteligencia artificial en el arte o la relación entre los robots mismos – la llamada ley AIonAI. Esta sexta ley establece: "Todos los robots dotados de razón humana comparable y conciencia deben actuar unos hacia otros en un espíritu de fraternidad".
Principios de robótica EPSRC / AHRC
En 2011, el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación en Artes y Humanidades (AHRC) del Reino Unido publicaron conjuntamente un conjunto de cinco "principios éticos para diseñadores, constructores y usuarios de robots". 34; en el mundo real, junto con siete "mensajes de alto nivel" Se pretende transmitir, basado en un taller de investigación de septiembre de 2010:
- Los robots no deben diseñarse únicamente o principalmente para matar o dañar a los humanos.
- Los humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para alcanzar objetivos humanos.
- Los robots deben diseñarse de maneras que garanticen su seguridad.
- Los robots son artefactos; no deben diseñarse para explotar usuarios vulnerables evocando una respuesta emocional o dependencia. Siempre debería ser posible decirle a un robot de un humano.
- Siempre debe ser posible averiguar quién es legalmente responsable de un robot.
Los mensajes que se pretendían transmitir eran:
- Creemos que los robots tienen el potencial de dar un enorme impacto positivo a la sociedad. Queremos fomentar la investigación responsable del robot.
- La mala práctica nos hace daño a todos.
- Hacer frente a preocupaciones públicas obvias nos ayudará a todos a avanzar.
- Es importante demostrar que nosotros, como robotistas, estamos comprometidos con los mejores estándares posibles de práctica.
- Para entender el contexto y las consecuencias de nuestra investigación, debemos trabajar con expertos de otras disciplinas, incluyendo: ciencias sociales, derecho, filosofía y artes.
- Debemos considerar la ética de la transparencia: ¿hay límites a lo que debería estar disponible abiertamente?
- Cuando vemos cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para contactar a los periodistas informantes.
Los principios del EPSRC son ampliamente reconocidos como un punto de partida útil. En 2016, Tony Prescott organizó un taller para revisar estos principios, p. diferenciar los principios éticos de los legales.
Desarrollo judicial
Ya se ha iniciado otra codificación terminológica integral para la evaluación jurídica de los avances tecnológicos en la industria de la robótica, principalmente en los países asiáticos. Este avance representa una reinterpretación contemporánea del derecho (y de la ética) en el campo de la robótica, una interpretación que supone un replanteamiento de las constelaciones jurídicas tradicionales. Estos incluyen principalmente cuestiones de responsabilidad legal en el derecho civil y penal.
Las leyes de Satya Nadella
En junio de 2016, Satya Nadella, director ejecutivo de Microsoft Corporation, tuvo una entrevista con la revista Slate y reflexionó sobre qué tipo de principios y objetivos deberían ser considerados por la industria y la sociedad cuando se habla de inteligencia artificial.:
- "A.I. debe estar diseñado para ayudar a la humanidad", es decir, la autonomía humana necesita ser respetada.
- "A.I. debe ser transparente" significando que los humanos deben saber y ser capaces de entender cómo funcionan.
- "A.I. debe maximizar las eficiencias sin destruir la dignidad de las personas."
- "A.I. debe ser diseñado para la privacidad inteligente", lo que significa que gana confianza guardando su información.
- "A.I. debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño no deseado".
- "A.I. debe protegerse contra los prejuicios" para que no discriminen contra las personas.
Las "leyes de la robótica"
de TildenMark W. Tilden es un físico robótico que fue pionero en el desarrollo de robótica simple. Sus tres principios/reglas rectoras para los robots son:
- Un robot debe proteger su existencia a toda costa.
- Un robot debe obtener y mantener el acceso a su propia fuente de energía.
- Un robot debe buscar continuamente mejores fuentes de energía.
Lo que es notable en estas tres reglas es que son básicamente reglas para juegos "salvajes" vida, así que, en esencia, lo que Tilden afirmó es que lo que quería era "supervisar una especie de silicio para que tuviera sensibilidad, pero con control total sobre las especificaciones". No plantar. No animales. Algo más."