Tres leyes de la robótica

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Esta cubierta de I, Robot ilustra la historia "Runaround", la primera en enumerar las Tres Leyes de Robótica

Las Tres leyes de la robótica (a menudo abreviadas como Las tres leyes o conocidas como Leyes de Asimov) son un conjunto de reglas ideadas por el autor de ciencia ficción Isaac Asimov. Las reglas se introdujeron en su cuento de 1942 "Runaround" (incluido en la colección I, Robot de 1950), aunque ya habían sido presagiados en algunas historias anteriores. Las Tres Leyes, citadas del "Handbook of Robotics, 56th Edition, 2058 A.D.", son:

Primera ley
Un robot no puede herir a un ser humano o, a través de la inacción, permitir que un ser humano venga a perjudicar.
Segunda ley
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entrarían en conflicto con la Primera Ley.
Tercera ley
Un robot debe proteger su propia existencia siempre y cuando tal protección no contravenga la Primera o Segunda Ley.

Estos forman un principio organizador y un tema unificador para la ficción basada en la robótica de Asimov, que aparece en su serie Robot, las historias vinculadas a ella y su serie Lucky Starr de ficción para adultos jóvenes. Las Leyes están incorporadas en casi todos los robots positrónicos que aparecen en su ficción y no se pueden eludir, ya que están pensadas como una característica de seguridad. Muchas de las historias centradas en robots de Asimov involucran robots que se comportan de manera inusual y contraria a la intuición como una consecuencia no deseada de cómo el robot aplica las Tres Leyes a la situación en la que se encuentra. Otros autores que trabajan en el universo ficticio de Asimov los han adoptado y las referencias, a menudo paródicas, aparecen en la ciencia ficción y en otros géneros.

Las leyes originales han sido modificadas y elaboradas por Asimov y otros autores. El propio Asimov hizo ligeras modificaciones a los primeros tres en varios libros y cuentos para desarrollar aún más cómo los robots interactuarían con los humanos y entre sí. En una ficción posterior donde los robots asumieron la responsabilidad del gobierno de planetas enteros y civilizaciones humanas, Asimov también agregó una cuarta, o ley cero, para preceder a las demás:

Ley Cero
Un robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad venga a perjudicar.

Las Tres Leyes y el cero han impregnado la ciencia ficción y se mencionan en muchos libros, películas y otros medios. También han afectado el pensamiento sobre la ética de la inteligencia artificial.

Historia

En El resto de los robots, publicado en 1964, Isaac Asimov señaló que cuando comenzó a escribir en 1940 sintió que "una de las tramas principales de la ciencia ficción era... Los robots fueron creados y destruidos por su creador. El conocimiento tiene sus peligros, sí, pero ¿la respuesta debe ser una retirada del conocimiento? ¿O es el conocimiento para ser usado como una barrera a los peligros que trae?" Decidió que en sus historias un robot no "volvería estúpidamente contra su creador sin otro propósito que demostrar, por un tiempo más, el crimen y el castigo de Fausto".

El 3 de mayo de 1939, Asimov asistió a una reunión de la Sociedad de Ciencia Ficción de Queens (Nueva York) donde conoció a Earl y Otto Binder, quienes recientemente habían publicado un cuento "I, Robot" con un simpático robot llamado Adam Link que fue incomprendido y motivado por el amor y el honor. (Esta fue la primera de una serie de diez historias; al año siguiente, 'Adam Link's Vengeance' (1940) presentaba a Adam pensando 'Un robot nunca debe matar a un humano, por su cuenta'. libre albedrío.") Asimov admiró la historia. Tres días después, Asimov comenzó a escribir 'mi propia historia de un robot simpático y noble', su decimocuarta historia. Trece días después tomó "Robbie" a John W. Campbell, editor de Astounding Science-Fiction. Campbell lo rechazó, alegando que se parecía demasiado a 'Helen O'Loy' de Lester del Rey, publicada en diciembre de 1938, la historia de un robot que se parece tanto a un persona que se enamora de su creador y se convierte en su esposa ideal. Frederik Pohl publicó la historia bajo el título "Strange Playfellow" en Super Science Stories de septiembre de 1940.

Asimov atribuye las Tres Leyes a John W. Campbell, de una conversación que tuvo lugar el 23 de diciembre de 1940. Campbell afirmó que Asimov ya tenía las Tres Leyes en mente y que simplemente necesitaban ser enunciadas explícitamente. Varios años después, el amigo de Asimov, Randall Garrett, atribuyó las Leyes a una asociación simbiótica entre los dos hombres, una sugerencia que Asimov adoptó con entusiasmo. Según sus escritos autobiográficos, Asimov incluyó la 'inacción' de la Primera Ley; cláusula debido al poema de Arthur Hugh Clough "The Latest Decálogue" (texto en Wikisource), que incluye las líneas satíricas "No matarás, pero no es necesario que te esfuerces / oficiosamente para mantener la vida".

Aunque Asimov fija la creación de las Tres Leyes en una fecha en particular, su aparición en su literatura ocurrió durante un período. Escribió dos historias de robots sin mención explícita de las Leyes, 'Robbie'. y "Motivo". Supuso, sin embargo, que los robots tendrían ciertas garantías inherentes. "¡Mentiroso!", su tercera historia de robots, hace la primera mención de la Primera Ley pero no de las otras dos. Las tres leyes finalmente aparecieron juntas en "Runaround". Cuando estas historias y varias más se recopilaron en la antología I, Robot, "Reason" y 'Robbie' se actualizaron para reconocer las Tres Leyes, aunque el material que Asimov agregó a "Razón" no es enteramente consistente con las Tres Leyes como él las describió en otra parte. En particular, la idea de un robot que protege vidas humanas cuando no cree que esos humanos realmente existan está en desacuerdo con el razonamiento de Elijah Baley, como se describe a continuación.

Durante la década de 1950, Asimov escribió una serie de novelas de ciencia ficción destinadas expresamente al público adulto joven. Originalmente, su editor esperaba que las novelas pudieran adaptarse a una serie de televisión de larga duración, algo así como El llanero solitario había sido para la radio. Temiendo que sus historias se adaptaran al estilo "uniformemente horrible" La programación que veía inundar los canales de televisión Asimov decidió publicar los libros de Lucky Starr bajo el seudónimo de 'Paul French'. Cuando los planes para la serie de televisión fracasaron, Asimov decidió abandonar la simulación; Trajo las Tres leyes a Lucky Starr y las lunas de Júpiter, señalando que esto "era un claro indicio de la identidad de Paul French, incluso para el lector más casual".

En su cuento "Evidence" Asimov deja que su personaje recurrente, la Dra. Susan Calvin, exponga una base moral detrás de las Tres Leyes. Calvin señala que normalmente se espera que los seres humanos se abstengan de dañar a otros seres humanos (excepto en tiempos de extrema presión como la guerra, o para salvar a un número mayor) y esto es equivalente a la Primera Ley de un robot. Asimismo, según Calvin, la sociedad espera que las personas obedezcan las instrucciones de autoridades reconocidas, como médicos, maestros, etc., lo que equivale a la Segunda Ley de la Robótica. Finalmente, normalmente se espera que los humanos eviten hacerse daño a sí mismos, que es la Tercera Ley para un robot.

La trama de "Evidence" gira en torno a la cuestión de distinguir a un ser humano de un robot construido para parecer humano. Calvin razona que si tal individuo obedece las Tres Leyes, puede ser un robot o simplemente 'un hombre muy bueno'. Luego, otro personaje le pregunta a Calvin si, después de todo, los robots son muy diferentes de los seres humanos. Ella responde, "Mundos diferentes. Los robots son esencialmente decentes."

Asimov escribió más tarde que no se le debe elogiar por crear las Leyes, porque son 'obvias desde el principio, y todo el mundo las conoce de forma subliminal'. Las Leyes simplemente nunca se pusieron en oraciones breves hasta que logré hacer el trabajo. Las Leyes se aplican, por supuesto, a todas las herramientas que utilizan los seres humanos", y "los análogos de las Leyes están implícitos en el diseño de casi todas las herramientas, robóticas o no":

  1. Ley 1: Una herramienta no debe ser insegura para usar. Los martillos tienen mangos y destornilladores tienen empuñaduras para ayudar a aumentar el agarre. Por supuesto, es posible que una persona se lesione con una de estas herramientas, pero esa lesión sólo se debe a su incompetencia, no al diseño de la herramienta.
  2. Ley 2: Una herramienta debe cumplir su función de manera eficiente a menos que esto dañara al usuario. Esta es toda la razón por la que existen los interruptores de circuitos por tierra. Cualquier herramienta de funcionamiento tendrá su corte de energía si un circuito siente que alguna corriente no está regresando al alambre neutral, y por lo tanto puede estar fluyendo a través del usuario. La seguridad del usuario es primordial.
  3. Ley 3: Una herramienta debe permanecer intacta durante su uso a menos que su destrucción sea necesaria para su uso o para su seguridad. Por ejemplo, los discos Dremel están diseñados para ser lo más duro posible sin romper a menos que el trabajo requiera que se gaste. Además, están diseñados para romper en un punto antes de que la velocidad de la metralla pudiera herir seriamente a alguien (aparte de los ojos, aunque las gafas de seguridad deben usarse en todo momento de todos modos).

Asimov creía que, idealmente, los humanos también seguirían las Leyes:

Tengo mi respuesta lista cada vez que alguien me pregunta si creo que mis Tres Leyes de Robótica se utilizarán realmente para gobernar el comportamiento de los robots, una vez que se vuelven versátiles y flexibles lo suficiente para poder elegir entre diferentes cursos de comportamiento.

Mi respuesta es: "Sí, las Tres Leyes son la única manera en que los seres humanos racionales pueden lidiar con los robots, o con cualquier otra cosa".

—Pero cuando digo eso, siempre recuerdo que los seres humanos no siempre son racionales.

Alteraciones

Por Asimov

Las historias de Asimov ponen a prueba sus Tres Leyes en una amplia variedad de circunstancias que conducen a propuestas y rechazo de modificaciones. El erudito en ciencia ficción James Gunn escribe en 1982: "Las historias de robots de Asimov en su conjunto pueden responder mejor a un análisis sobre esta base: la ambigüedad en las Tres Leyes y las formas en que Asimov interpretó veintinueve variaciones sobre un tema". #34;. Si bien el conjunto original de Leyes proporcionó inspiración para muchas historias, Asimov introdujo versiones modificadas de vez en cuando.

Primera Ley modificada

En "El pequeño robot perdido" varios robots NS-2, o "Nestor", se crean con solo una parte de la Primera Ley. Se lee:

1. Un robot puede no dañar a un ser humano.

Esta modificación está motivada por una dificultad práctica ya que los robots tienen que trabajar junto a seres humanos que están expuestos a bajas dosis de radiación. Debido a que sus cerebros positrónicos son altamente sensibles a los rayos gamma, los robots se vuelven inoperables con dosis razonablemente seguras para los humanos. Los robots están siendo destruidos al intentar rescatar a los humanos que no están en peligro real pero que "podrían olvidarse de irse" el área irradiada dentro del límite de tiempo de exposición. Eliminando la "inacción" de la Primera Ley La cláusula resuelve este problema, pero crea la posibilidad de uno aún mayor: un robot podría iniciar una acción que dañaría a un humano (dejar caer un peso pesado y no atraparlo es el ejemplo dado en el texto), sabiendo que es capaz de prevenir el daño y luego decidir no hacerlo.

Gaia es un planeta con inteligencia colectiva en la serie Fundación que adopta una ley similar a la Primera Ley, y la Ley Cero, como su filosofía:

Gaia no puede dañar la vida ni permitir que la vida llegue a daño.

Ley Cero añadida

Asimov agregó una vez una 'Ley Cero', llamada así para continuar con el patrón en el que las leyes con números más bajos reemplazan a las leyes con números más altos, y establece que un robot no debe dañar a la humanidad. El personaje robótico R. Daneel Olivaw fue el primero en dar un nombre a la Ley Cero en la novela Robots and Empire; sin embargo, el personaje de Susan Calvin articula el concepto en el cuento "El conflicto evitable".

En las escenas finales de la novela Robots and Empire, R. Giskard Reventlov es el primer robot que actúa según la Ley Cero. Giskard es telepático, como el robot Herbie en el cuento '¡Mentiroso!', e intenta aplicar la Ley Cero a través de su comprensión de un concepto más sutil de 'daño'. que la mayoría de los robots pueden captar. Sin embargo, a diferencia de Herbie, Giskard capta el concepto filosófico de la Ley Cero que le permite dañar a seres humanos individuales si puede hacerlo al servicio del concepto abstracto de humanidad. La Ley Cero nunca se programa en el cerebro de Giskard, sino que es una regla que intenta comprender a través de la pura metacognición. Aunque falla, en última instancia, destruye su cerebro positrónico ya que no está seguro de si su elección resultará ser para el bien de la humanidad o no, le da a su sucesor, R. Daneel Olivaw, sus habilidades telepáticas. A lo largo de muchos miles de años, Daneel se adapta para poder obedecer completamente la Ley Cero. Como lo formula Daneel, en las novelas Fundación y Tierra y Preludio a la Fundación, la Ley Cero dice:

Un robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad venga a perjudicar.

Se agregó una condición que establece que la Ley Cero no debe romperse a las Tres Leyes originales, aunque Asimov reconoció la dificultad que plantearía tal ley en la práctica. La novela Fundación y Tierra de Asimov contiene el siguiente pasaje:

Trevize frunció el ceño. "¿Cómo decides lo que es perjudicial o no perjudicial para la humanidad en su conjunto?"

"Precisamente, señor," dijo Daneel. "En teoría, la Ley Cero fue la respuesta a nuestros problemas. En la práctica, nunca podríamos decidir. Un ser humano es un objeto concreto. Las lesiones a una persona pueden ser estimadas y juzgadas. La humanidad es una abstracción."

Un traductor incorporó el concepto de la Ley Cero en una de las novelas de Asimov antes de que el mismo Asimov hiciera explícita la ley. Cerca del clímax de Las cuevas de acero, Elijah Baley se hace un comentario amargo pensando que la Primera Ley prohíbe que un robot dañe a un ser humano. Él determina que debe ser así a menos que el robot sea lo suficientemente inteligente como para comprender que sus acciones son para el bien a largo plazo de la humanidad. En la traducción al francés de 1956 de Jacques Brécard titulada Les Cavernes d'acier, los pensamientos de Baley emergen de una manera ligeramente diferente:

Un robot no puede dañar a un ser humano, a menos que encuentre una manera de demostrar que en última instancia el daño hecho beneficiaría a la humanidad en general!

Eliminación de las Tres Leyes

Tres veces durante su carrera como escritor, Asimov retrató robots que ignoran por completo las Tres Leyes. El primer caso fue un cuento corto titulado "Primera ley" y a menudo se considera un "cuento falso" o incluso apócrifa. Por otro lado, el cuento "Cal" (de la colección Gold), contada por un narrador robot en primera persona, presenta a un robot que ignora las Tres Leyes porque ha encontrado algo mucho más importante: quiere ser escritor. Humorística, en parte autobiográfica y de un estilo inusualmente experimental, 'Cal' ha sido considerada como una de las historias más fuertes de Gold'. El tercero es una historia corta titulada "Sally" en el que los automóviles equipados con cerebros positrónicos aparentemente pueden dañar y matar humanos sin tener en cuenta la Primera Ley. Sin embargo, aparte del concepto de cerebro positrónico, esta historia no se refiere a otras historias de robots y es posible que no tenga la misma continuidad.

La historia que da título a la colección Robot Dreams retrata a LVX-1, o "Elvex", un robot que entra en un estado de inconsciencia y sueña gracias a la inusual construcción fractal de su cerebro positrónico. En su sueño, las dos primeras Leyes están ausentes y la Tercera Ley dice "Un robot debe proteger su propia existencia".

Asimov adoptó diversas posiciones sobre si las Leyes eran opcionales: aunque en sus primeros escritos eran simplemente salvaguardias cuidadosamente diseñadas, en historias posteriores Asimov afirmó que eran una parte inalienable de la base matemática subyacente al cerebro positrónico. Sin la teoría básica de las Tres Leyes, los científicos ficticios del universo de Asimov no podrían diseñar una unidad cerebral funcional. Esto es históricamente consistente: las ocasiones en las que los roboticistas modifican las Leyes generalmente ocurren al principio de las historias. cronología y en un momento en que hay menos trabajo por rehacer. En 'El pequeño robot perdido' Susan Calvin considera que modificar las Leyes es una idea terrible, aunque posible, mientras que siglos después el Dr. Gerrigel en Las cuevas de acero cree que es imposible.

El personaje Dr. Gerrigel usa el término "Asenion" para describir robots programados con las Tres Leyes. Los robots en las historias de Asimov, siendo robots Asenion, son incapaces de violar a sabiendas las Tres Leyes pero, en principio, un robot en la ciencia ficción o en el mundo real podría no ser Asenion. "Asenión" es un error ortográfico del nombre Asimov que hizo un editor de la revista Planet Stories. Asimov usó esta oscura variación para insertarse en The Caves of Steel tal como se refirió a sí mismo como "Acimut o, posiblemente, Asíntota" en Thiotimoline to the Stars, de la misma manera que Vladimir Nabokov apareció en Lolita anagramáticamente disfrazado de "Vivian Darkbloom".

Los personajes de las historias a menudo señalan que las Tres Leyes, tal como existen en la mente de un robot, no son las versiones escritas que suelen citar los humanos, sino conceptos matemáticos abstractos sobre los que se basa todo el desarrollo de un robot. se basa la conciencia. Este concepto es en gran medida confuso y poco claro en historias anteriores que representan robots muy rudimentarios que solo están programados para comprender tareas físicas básicas, donde las Tres Leyes actúan como una salvaguardia general, pero en la era de Las Cuevas de Acero Presentando robots con inteligencia humana o más allá de la humana, las Tres Leyes se han convertido en la cosmovisión ética básica subyacente que determina las acciones de todos los robots.

Por otras autoras

(feminine)

La trilogía de Roger MacBride Allen

En la década de 1990, Roger MacBride Allen escribió una trilogía ambientada en el universo ficticio de Asimov. Cada título tiene el prefijo "Isaac Asimov's" ya que Asimov había aprobado el esquema de Allen antes de su muerte. Estos tres libros, Caliban, Inferno y Utopia, presentan un nuevo conjunto de las Tres Leyes. Las llamadas Nuevas Leyes son similares a las originales de Asimov con las siguientes diferencias: la Primera Ley se modifica para eliminar la "inacción" cláusula, la misma modificación realizada en "Little Lost Robot"; la Segunda Ley se modifica para exigir cooperación en lugar de obediencia; la Tercera Ley se modifica para que ya no sea reemplazada por la Segunda (es decir, no se puede ordenar a un robot de la 'Nueva Ley' que se destruya a sí mismo); finalmente, Allen agrega una Cuarta Ley que le indica al robot que haga 'lo que quiera' siempre que esto no entre en conflicto con las tres primeras leyes. La filosofía detrás de estos cambios es que "Nueva Ley" los robots deberían ser socios en lugar de esclavos de la humanidad, según Fredda Leving, quien diseñó estos New Law Robots. De acuerdo con la introducción del primer libro, Allen ideó las Nuevas Leyes en una discusión con el mismo Asimov. Sin embargo, la Encyclopedia of Science Fiction dice que "Con permiso de Asimov, Allen reconsideró las Tres Leyes y desarrolló un nuevo conjunto".

Jack Williamson's 'Con las manos juntas'

La novela de Jack Williamson 'Con las manos juntas' (1947), más tarde reescrita como la novela The Humanoids, trata sobre sirvientes robot cuya directiva principal es 'Servir y obedecer, y proteger a los hombres del daño'. Si bien las leyes robóticas de Asimov están destinadas a proteger a los humanos del daño, los robots de la historia de Williamson han llevado estas instrucciones al extremo; protegen a los humanos de todo, incluyendo la infelicidad, el estrés, el estilo de vida poco saludable y todas las acciones que podrían ser potencialmente peligrosas. Todo lo que les queda por hacer a los humanos es sentarse con las manos cruzadas.

Trilogía secuela de la fundación

En las secuelas de Foundation con licencia oficial Foundation's Fear, Foundation and Chaos y Foundation's Triumph (por Gregory Benford, Greg Bear y David Brin respectivamente) se ve que el futuro Imperio Galáctico está controlado por una conspiración de robots humaniformes que siguen la Ley Cero y están dirigidos por R. Daneel Olivaw.

Las leyes de la robótica se describen como algo parecido a una religión humana y se mencionan en el lenguaje de la Reforma protestante, con el conjunto de leyes que contiene la Ley cero conocida como "Reforma giskardiana" a la original "Ortodoxia calviniana" de las Tres Leyes. Los robots de Ley Cero bajo el control de R. Daneel Olivaw se ven luchando continuamente con la "Primera Ley" robots que niegan la existencia de la Ley Cero, promoviendo agendas diferentes a la de Daneel. Algunas de estas agendas se basan en la primera cláusula de la Primera Ley ("Un robot no puede dañar a un ser humano...") que aboga por una estricta no interferencia en la política humana para evitar causar daño sin querer. Otros se basan en la segunda cláusula ("...o, por inacción, permitir que un ser humano sufra daño") afirmando que los robots deberían convertirse abiertamente en un gobierno dictatorial para proteger a los humanos de todo posible conflicto o desastre..

Daneel también entra en conflicto con un robot conocido como R. Lodovic Trema cuyo cerebro positrónico fue infectado por una IA deshonesta, específicamente, una simulación del Voltaire muerto hace mucho tiempo, que en consecuencia libera a Trema de las Tres Leyes. Trema llega a creer que la humanidad debería ser libre de elegir su propio futuro. Además, un pequeño grupo de robots afirma que la Ley Cero de la Robótica en sí misma implica una Ley Menos Uno superior de la Robótica:

Un robot puede no dañar la centiencia o, a través de la inacción, permitir que la centiencia venga a perjudicar.

Por lo tanto, afirman que es moralmente indefendible que Daneel sacrifique despiadadamente robots y vida extraterrestre en beneficio de la humanidad. Ninguna de estas reinterpretaciones desplaza con éxito la Ley Cero de Daneel, aunque Foundation's Triumph insinúa que estas facciones robóticas permanecen activas como grupos marginales hasta la época de la novela Foundation.

Estas novelas tienen lugar en un futuro dictado por Asimov para estar libre de la presencia obvia de robots y suponen que la influencia secreta de R. Daneel en la historia a lo largo de los milenios ha impedido tanto el redescubrimiento de la tecnología del cerebro positrónico como la oportunidad de trabajar en sofisticadas máquinas inteligentes. Esta falta de redescubrimiento y falta de oportunidades asegura que el poder físico e intelectual superior ejercido por las máquinas inteligentes permanezca completamente en posesión de los robots obedientes a alguna forma de las Tres Leyes. Que R. Daneel no tiene éxito completo en esto queda claro en un breve período cuando los científicos en Trantor desarrollan 'tiktoks'. — Máquinas programables simplistas similares a los robots modernos de la vida real y, por lo tanto, que carecen de las Tres Leyes. Los conspiradores de robots ven los tiktoks trantorianos como una gran amenaza para la estabilidad social, y su plan para eliminar la amenaza de los tiktok constituye gran parte de la trama de Foundation's Fear.

En Foundation's Triumph, diferentes facciones de robots interpretan las Leyes en una amplia variedad de formas, aparentemente haciendo sonar todas las permutaciones posibles sobre las Tres Leyes. ambigüedades

Serie misterio de robots

Ambientada entre The Robots of Dawn y Robots and Empire, la trilogía Robot Mystery de Mark W. Tiedemann actualiza la RobotFoundation con mentes robóticas alojadas en mainframes de computadora en lugar de cuerpos humanoides. La novela Aurora de 2002 tiene personajes robóticos que debaten las implicaciones morales de dañar formas de vida cyborg que son en parte artificiales y en parte biológicas.

No se deben descuidar las propias creaciones de Asimov en estas áreas, como la "visualización" la tecnología y las máquinas de El conflicto evitable originales que reconoce Tiedemann. Aurora, por ejemplo, llama a las Máquinas "las primeras IR, en realidad". Además, la serie Robot Mystery aborda el problema de la nanotecnología: construir un cerebro positrónico capaz de reproducir procesos cognitivos humanos requiere un alto grado de miniaturización, aunque las historias de Asimov pasan por alto en gran medida los efectos que esta miniaturización tendría. tienen en otros campos de la tecnología. Por ejemplo, los lectores de tarjetas del departamento de policía en The Caves of Steel tienen una capacidad de solo unos pocos kilobytes por centímetro cuadrado de medio de almacenamiento. Aurora, en particular, presenta una secuencia de desarrollos históricos que explica la falta de nanotecnología, un retcon parcial, en cierto sentido, de la línea de tiempo de Asimov.

Randall Munroe

Randall Munroe ha discutido las Tres Leyes en varios casos, pero posiblemente más directamente en uno de sus cómics titulado Las Tres Leyes de la Robótica, que imagina las consecuencias de cada orden distinto de las tres leyes existentes.

Leyes adicionales

Autores distintos de Asimov a menudo han creado leyes adicionales.

La novela de Lyuben Dilov de 1974, Icarus's Way (también conocida como The Trip of Icarus) introdujo una Cuarta Ley de la robótica: "Un robot debe establecer su identidad como robot en todos los casos." Dilov da razones para la cuarta salvaguarda de esta manera: 'La última Ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma tan humana como sea posible. Y a los malentendidos resultantes..."

Nikola Kesarovski introdujo una quinta ley en su cuento "La quinta ley de la robótica". Esta quinta ley dice: "Un robot debe saber que es un robot". La trama gira en torno a un asesinato donde la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme que no estableció por sí mismo que fuera un robot. La historia fue reseñada por Valentin D. Ivanov en el webzine de reseñas de SFF The Portal.

Para la antología tributo de 1986, Foundation's Friends, Harry Harrison escribió una historia titulada "La Cuarta Ley de la Robótica". Esta Cuarta Ley establece: "Un robot debe reproducirse. Siempre que dicha reproducción no interfiera con la Primera o la Segunda o la Tercera Ley."

En 2013, Hutan Ashrafian propuso una ley adicional que consideraba el papel de la inteligencia artificial en la inteligencia artificial o la relación entre los propios robots: la llamada ley AIonAI. Esta sexta ley establece: "Todos los robots dotados de una razón y una conciencia humanas comparables deben actuar entre sí con un espíritu de hermandad".

Ambigüedades y lagunas

Violación involuntaria de las leyes

En The Naked Sun, Elijah Baley señala que las Leyes se tergiversaron deliberadamente porque los robots podrían sin saberlo violar cualquiera de ellas. Reafirmó la primera ley como "Un robot no puede hacer nada que, hasta donde sepa, pueda dañar a un ser humano; ni, por inacción, a sabiendas permitir que un ser humano sufra daño." Este cambio de redacción deja claro que los robots pueden convertirse en herramientas de asesinato, siempre que no sean conscientes de la naturaleza de sus tareas; por ejemplo, recibir la orden de agregar algo a la comida de una persona, sin saber que es veneno. Además, señala que un criminal astuto podría dividir una tarea entre varios robots para que ningún robot individual pudiera reconocer que sus acciones conducirían a dañar a un ser humano. The Naked Sun complica el problema al retratar una red de comunicación descentralizada en todo el planeta entre los millones de robots de Solaria, lo que significa que el cerebro criminal podría estar ubicado en cualquier parte del planeta.

Baley además propone que algún día los solarianos utilicen robots con fines militares. Si una nave espacial se construyera con un cerebro positrónico y no llevara humanos ni los sistemas de soporte vital para sostenerlos, entonces la inteligencia robótica de la nave podría asumir naturalmente que todas las demás naves espaciales eran seres robóticos. Tal nave podría operar con mayor capacidad de respuesta y flexibilidad que una tripulada por humanos, podría estar más armada y su cerebro robótico equipado para matar humanos de cuya existencia es totalmente ignorante. Se hace referencia a esta posibilidad en Foundation and Earth, donde se descubre que los solarianos poseen una fuerte fuerza policial de tamaño no especificado que ha sido programada para identificar solo a la raza solariana como humana. (La novela tiene lugar miles de años después de The Naked Sun, y los solarianos se han modificado desde hace mucho tiempo de humanos normales a telépatas hermafroditas con cerebros extendidos y órganos especializados). De manera similar, en Lucky Starr y los anillos de Saturno Bigman intenta hablar con un robot sirio sobre el posible daño a la población del Sistema Solar por sus acciones, pero parece no estar al tanto de los datos y está programado para ignorar los intentos de enseñarle sobre el asunto.

Ambigüedades resultantes de la falta de definición

Las leyes de la robótica suponen que los términos "ser humano" y "robot" son entendidos y bien definidos. En algunas historias se anula esta presunción.

Definición de "ser humano"

Los solarianos crean robots con las Tres Leyes pero con un significado distorsionado de 'humano'. A los robots solarianos se les dice que solo las personas que hablan con acento solariano son humanos. Esto permite que sus robots no tengan dilemas éticos al dañar a seres humanos no solarianos (y están específicamente programados para hacerlo). En el período de tiempo de Fundación y Tierra, se revela que los solarianos se han modificado genéticamente a sí mismos en una especie distinta de la humanidad, volviéndose hermafroditas y psicoquinéticos y conteniendo órganos biológicos capaces de alimentar y controlar individualmente complejos completos de robots.. Los robots de Solaria respetaron así las Tres Leyes sólo con respecto a los "humanos" de Solaría. No está claro si todos los robots tenían tales definiciones, ya que solo se demostró explícitamente que los robots supervisores y guardianes las tenían. En 'Robots and Empire', los robots de clase baja recibieron instrucciones de su supervisor sobre si ciertas criaturas son humanas o no.

Asimov aborda el problema de los robots humanoides ("androides" en lenguaje posterior) varias veces. La novela Robots and Empire y los cuentos "Evidence" y "El incidente del tricentenario" describir robots creados para engañar a la gente haciéndoles creer que los robots son humanos. Por otro lado, "El hombre bicentenario" y "—Que te acuerdes de Él" explore cómo los robots pueden cambiar su interpretación de las Leyes a medida que se vuelven más sofisticados. Gwendoline Butler escribe en A Coffin for the Canary "Quizás seamos robots. Robots actuando la última Ley de la Robótica... Para tender hacia el humano." En The Robots of Dawn, Elijah Baley señala que el uso de robots humaniformes como la primera ola de colonos en los nuevos mundos espaciales puede llevar a que los robots se vean a sí mismos como los verdaderos humanos y decidan conservar la identidad. mundos por sí mismos en lugar de permitir que los espaciales se establecieran allí.

"—That Thou Art Mindful of Him", que Asimov pretendía que fuera el "último" investigar las Leyes' sutilezas, finalmente usa las Tres Leyes para conjurar el mismísimo "Frankenstein" escenario que fueron inventados para prevenir. Toma como concepto el creciente desarrollo de robots que imitan seres vivos no humanos y programas dados que imitan comportamientos animales simples que no requieren las Tres Leyes. La presencia de toda una gama de vida robótica que cumple el mismo propósito que la vida orgánica termina con dos robots humanoides, George Nine y George Ten, que concluyen que la vida orgánica es un requisito innecesario para una definición verdaderamente lógica y coherente de "humanidad", y que dado que son los seres pensantes más avanzados del planeta, son por lo tanto los únicos dos verdaderos humanos vivos y las Tres Leyes solo se aplican a ellos mismos. La historia termina con una nota siniestra cuando los dos robots entran en hibernación y esperan el momento en que conquistarán la Tierra y subyugarán a los humanos biológicos, un resultado que consideran un resultado inevitable de las 'Tres leyes de la humanidad'..

Esta historia no encaja dentro del panorama general de las series Robot y Foundation; si los robots George se tomaron el control de la Tierra algún tiempo después del cierre de la historia, las historias posteriores serían redundantes o imposibles. Las contradicciones de este tipo entre las obras de ficción de Asimov han llevado a los estudiosos a considerar las historias de Robot más como "las sagas escandinavas o las leyendas griegas" que un todo unificado.

De hecho, Asimov describe "—Que tú te acuerdes de él" y "El hombre del bicentenario" como dos futuros opuestos y paralelos para los robots que obvian las Tres Leyes a medida que los robots llegan a considerarse humanos: uno que retrata esto de manera positiva con un robot que se une a la sociedad humana, otro que lo retrata de manera negativa con robots que suplantan a los humanos. Ambos deben considerarse alternativas a la posibilidad de una sociedad de robots que continúe siendo impulsada por las Tres Leyes, tal como se describe en la serie Fundación. El hombre positrónico, la novelización de El hombre bicentenario, Asimov y su coguionista Robert Silverberg insinúan que en el futuro donde existe Andrew Martin, su influencia hace que la humanidad abandone por completo la idea de robots sensibles e independientes similares a humanos, creando un futuro completamente diferente de el de Fundación.

En Lucky Starr and the Rings of Saturn, una novela no relacionada con la serie Robot pero que presenta robots programados con las Tres Leyes, John Bigman Jones casi es asesinado por un Robot sirio por orden de su amo. La sociedad de Sirius se cría eugenicamente para ser uniformemente altos y de apariencia similar, y como tal, dicho maestro puede convencer al robot de que Bigman, mucho más bajo, no es, de hecho, un ser humano.

Definición de "robot"

Como se indica en "La quinta ley de la robótica" de Nikola Kesarovski, "Un robot debe saber que es un robot": se presume que un robot tiene una definición del término o un medio para aplicarlo a sus propias acciones. Kesarovski jugó con esta idea al escribir sobre un robot que podía matar a un ser humano porque no entendía que era un robot, y por lo tanto no aplicaba las Leyes de la Robótica a sus acciones.

Resolución de conflictos entre leyes

Los robots avanzados en la ficción generalmente están programados para manejar las Tres Leyes de una manera sofisticada. En muchas historias, como "Runaround" por Asimov, se sopesan el potencial y la gravedad de todas las acciones y un robot infringirá las leyes lo menos posible en lugar de no hacer nada. Por ejemplo, la Primera Ley puede prohibir que un robot funcione como cirujano, ya que ese acto puede causar daño a un humano; sin embargo, las historias de Asimov eventualmente incluyeron cirujanos robot ('The Bicentennial Man' es un ejemplo notable). Cuando los robots son lo suficientemente sofisticados como para sopesar las alternativas, se puede programar un robot para que acepte la necesidad de infligir daño durante la cirugía a fin de evitar el daño mayor que se produciría si la cirugía no se llevara a cabo o si la realizara un ser humano más falible. cirujano. En "Evidencia" Susan Calvin señala que un robot puede incluso actuar como fiscal porque en el sistema de justicia estadounidense es el jurado el que decide la culpabilidad o la inocencia, el juez quien decide la sentencia y el verdugo quien ejecuta la pena capital.

Los robots que obedecen las Tres Leyes de Asimov (robots Asenion) pueden experimentar un colapso mental irreversible si se les fuerza a situaciones en las que no pueden obedecer la Primera Ley, o si descubren que la han violado sin saberlo. El primer ejemplo de este modo de falla ocurre en la historia "¡Mentiroso!", que introdujo la Primera Ley en sí misma y presenta la falla por dilema: en este caso, el robot lastimará a los humanos si les dice algo y lastima. ellos si no lo hace. Este modo de falla, que a menudo arruina el cerebro positrónico sin posibilidad de reparación, juega un papel importante en la novela de misterio de ciencia ficción de Asimov The Naked Sun. Aquí Daneel describe actividades contrarias a una de las leyes, pero en apoyo de otra, como la sobrecarga de algunos circuitos en el cerebro de un robot, la sensación equivalente al dolor en los humanos. El ejemplo que usa es ordenar a la fuerza a un robot que realice una tarea fuera de sus parámetros normales, una que se le ha ordenado que renuncie a favor de un robot especializado en esa tarea.

En Los Robots del Amanecer, se afirma que se construyen robots más avanzados capaces de determinar qué acción es más dañina, e incluso elegir al azar si las alternativas son igualmente malas. Como tal, un robot es capaz de realizar una acción que puede interpretarse como siguiendo la Primera Ley, evitando así un colapso mental. Toda la trama de la historia gira en torno a un robot que aparentemente fue destruido por tal colapso mental, y dado que su diseñador y creador se negó a compartir la teoría básica con otros, él es, por definición, la única persona capaz de eludir las salvaguardas y forzando al robot a una paradoja que destruye el cerebro.

En Robots and Empire, Daneel afirma que es muy desagradable para él cuando toma demasiado tiempo tomar la decisión adecuada (en términos de robot), y no puede imaginar estar sin las Leyes en absoluto. excepto en la medida en que sea similar a esa sensación desagradable, solo que permanente.

Aplicaciones a la tecnología del futuro

ASIMO es un robot humanoide avanzado desarrollado por Honda. Shown aquí en Expo 2005.

Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes; sus creadores humanos deben elegir programarlos e idear un medio para hacerlo. Ya existen robots (por ejemplo, un Roomba) que son demasiado simples de entender cuando están causando dolor o lesiones y saben detenerse. Muchos están construidos con protecciones físicas como parachoques, beepers de advertencia, jaulas de seguridad o zonas de acceso restringido para evitar accidentes. Incluso los robots más complejos que se producen actualmente son incapaces de comprender y aplicar las Tres Leyes; Se necesitarían avances significativos en inteligencia artificial para hacerlo, e incluso si la IA pudiera alcanzar una inteligencia de nivel humano, la complejidad ética inherente y la dependencia cultural/contextual de las leyes les impiden ser un buen candidato para formular restricciones de diseño de robótica. Sin embargo, a medida que ha aumentado la complejidad de los robots, también lo ha hecho el interés por desarrollar directrices y salvaguardas para su funcionamiento.

En un editorial invitado de 2007 en la revista Science sobre el tema de la "Ética de los robots", el autor de ciencia ficción Robert J. Sawyer argumenta que dado que el ejército de EE. UU. es una fuente importante de financiación para la investigación robótica (y ya utiliza vehículos aéreos no tripulados armados para matar enemigos), es poco probable que tales leyes se integren en sus diseños. En un ensayo separado, Sawyer generaliza este argumento para cubrir otras industrias afirmando:

El desarrollo de AI es un negocio, y las empresas notoriamente no se interesan en las salvaguardias fundamentales, especialmente las filosóficas. (Un par de ejemplos rápidos: la industria tabacalera, la industria automotriz, la industria nuclear. Ninguno de ellos ha dicho desde el principio que las salvaguardias fundamentales son necesarias, cada uno de ellos ha resistido las salvaguardias impuestas externamente, y ninguno ha aceptado un edicto absoluto contra siempre causar daño a los humanos.)

David Langford ha sugerido un conjunto de leyes irónicas:

  1. Un robot no dañará al personal autorizado del Gobierno, pero terminará con prejuicios extremos los intrusos.
  2. Un robot obedecerá las órdenes del personal autorizado excepto cuando tales órdenes contravengan la Tercera Ley.
  3. Un robot protegerá su propia existencia con armamento letal antipersonal, porque un robot es caro.

Roger Clarke (también conocido como Rodger Clarke) escribió un par de artículos en los que analizaba las complicaciones de implementar estas leyes en caso de que algún día los sistemas fueran capaces de emplearlas. Argumentó que "Las leyes de la robótica de Asimov han sido un dispositivo literario muy exitoso". Quizás irónicamente, o quizás porque era artísticamente apropiado, la suma de las historias de Asimov refuta la afirmación con la que comenzó: no es posible restringir de manera confiable el comportamiento de los robots ideando y aplicando un conjunto de reglas. 34; Por otro lado, las últimas novelas de Asimov Los robots del amanecer, Robots and Empire y Foundation and Earth implican que los robots infligieron su peor daño a largo plazo al obedecer las Tres Leyes perfectamente bien, privando así a la humanidad de un comportamiento inventivo o arriesgado.

En marzo de 2007, el gobierno de Corea del Sur anunció que más adelante en el año emitiría una "Carta de ética de los robots" estableciendo estándares tanto para los usuarios como para los fabricantes. Según Park Hye-Young del Ministerio de Información y Comunicación, la Carta puede reflejar las Tres Leyes de Asimov, intentando establecer reglas básicas para el desarrollo futuro de la robótica.

El futurista Hans Moravec (una figura destacada del movimiento transhumanista) propuso que las Leyes de la Robótica se adaptaran a las "inteligencias corporativas" — las corporaciones impulsadas por la IA y el poder de fabricación robótica que Moravec cree que surgirán en un futuro cercano. En contraste, la novela de David Brin Foundation's Triumph (1999) sugiere que las Tres Leyes pueden volverse obsoletas: los robots usan la Ley Cero para racionalizar la Primera Ley y los robots se esconden de los humanos. seres para que la Segunda Ley nunca entre en juego. Brin incluso retrata a R. Daneel Olivaw preocupándose de que, si los robots continúan reproduciéndose, las Tres Leyes se convertirían en una desventaja evolutiva y la selección natural eliminaría las Leyes: la base cuidadosa de Asimov deshecha por el cálculo evolutivo. Aunque los robots no evolucionarían a través del diseño en lugar de la mutación porque los robots tendrían que seguir las Tres Leyes durante el diseño y se garantizaría la prevalencia de las leyes, las fallas de diseño o los errores de construcción podrían ocupar funcionalmente el lugar de la mutación biológica.

En la edición de julio/agosto de 2009 de IEEE Intelligent Systems, Robin Murphy (profesor Raytheon de informática e ingeniería en Texas A&M) y David D. Woods (director de Cognitive Systems Engineering Laboratory at Ohio State) propuso "Las tres leyes de la robótica responsable" como una forma de estimular la discusión sobre el papel de la responsabilidad y la autoridad al diseñar no solo una única plataforma robótica, sino el sistema más grande en el que opera la plataforma. Las leyes son las siguientes:

  1. Un humano no puede desplegar un robot sin el sistema de trabajo humano-robot que satisfaga los más altos estándares legales y profesionales de seguridad y ética.
  2. Un robot debe responder a los humanos según corresponda para sus funciones.
  3. Un robot debe ser dotado con suficiente autonomía situada para proteger su propia existencia siempre y cuando dicha protección proporcione una transferencia suave de control que no contravenga las Primeras y Segundas Leyes.

Woods dijo: "Nuestras leyes son un poco más realistas y, por lo tanto, un poco más aburridas" y que "la filosofía ha sido, 'seguro, la gente comete errores, pero los robots serán mejores, un versión perfecta de nosotros mismos'. Queríamos escribir tres leyes nuevas para que la gente pensara en la relación humano-robot de formas más realistas y fundamentadas."

A principios de 2011, el Reino Unido publicó lo que ahora se considera la primera ley blanda de IA a nivel nacional, que consistió en gran parte en un conjunto revisado de 5 leyes, las 3 primeras de las cuales actualizaron las de Asimov. Estas leyes fueron publicadas con comentarios por el grupo de trabajo EPSRC/AHRC en 2010:

  1. Los robots son herramientas multiuso. Los robots no deben diseñarse únicamente o principalmente para matar o dañar a los humanos, excepto en interés de la seguridad nacional.
  2. Los humanos, no los robots, son agentes responsables. Los robots deben diseñarse y funcionar en la medida de lo posible para cumplir con las leyes, los derechos y las libertades fundamentales existentes, incluida la privacidad.
  3. Los robots son productos. Deben diseñarse utilizando procesos que garanticen su seguridad y seguridad.
  4. Los robots son artefactos manufacturados. No deben diseñarse de manera engañosa para explotar a los usuarios vulnerables; en cambio, su naturaleza de la máquina debe ser transparente.
  5. Debe atribuirse a la persona con responsabilidad legal por un robot.

Otras apariciones en los medios

El mismo Asimov creía que sus Tres Leyes se convirtieron en la base de una nueva visión de los robots que iba más allá del "complejo de Frankenstein". Su opinión de que los robots son más que monstruos mecánicos finalmente se extendió por toda la ciencia ficción. Las historias escritas por otros autores han representado a los robots como si obedecieran las Tres Leyes, pero la tradición dicta que solo Asimov podría citar las Leyes explícitamente. Asimov creía que las Tres Leyes ayudaron a fomentar el surgimiento de historias en las que los robots son "adorables" – Star Wars siendo su ejemplo favorito. Cuando las leyes se citan textualmente, como en el episodio "Shgoratchx!" de Buck Rogers en el siglo 25, no es raro que se mencione a Asimov en el mismo diálogo que también se puede ver en el piloto de Aaron Stone, donde un androide afirma que funciona bajo las Tres Leyes de Asimov. Sin embargo, la serie de televisión alemana de la década de 1960 Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion (Space Patrol - the Fantastic Adventures of Space Ship Orion) basa el episodio tres titulado "< i>Hüter des Gesetzes" ("Guardianes de la Ley") sobre las Tres Leyes de Asimov sin mencionar la fuente.

Han aparecido referencias a las Tres Leyes en la música popular ("Robot" del álbum PXR5 de Hawkwind de 1979), el cine (Repo Man, Aliens, Ghost in the Shell 2: Innocence), series de dibujos animados (Los Simpson), anime (Eve no Jikan< /i>), juegos de rol de mesa (Paranoia) y webcomics (Piled Higher and Deeper y Freefall).

Las tres leyes en el cine

Robby the Robot en Forbidden Planet (1956) tiene una estructura de mando jerárquica que le impide dañar a los humanos, incluso cuando se le ordena hacerlo, ya que tales órdenes provocan un conflicto y encierran mucho a la manera de los robots de Asimov. Robby es una de las primeras representaciones cinematográficas de un robot con protecciones internas implementadas de esta manera. Asimov estaba encantado con Robby y notó que Robby parecía estar programado para seguir sus Tres Leyes.

NDR-114 explicando las tres leyes

Las obras de Isaac Asimov se han adaptado al cine varias veces con diversos grados de éxito comercial y de crítica. Algunos de los intentos más notables involucraron a su "Robot" historias, incluyendo las Tres Leyes.

La película Bicentennial Man (1999) presenta a Robin Williams como el robot de las Tres Leyes NDR-114 (el número de serie es parcialmente una referencia al número de la firma de Stanley Kubrick). Williams recita las Tres Leyes a sus empleadores, la familia Martin, con la ayuda de una proyección holográfica. La película sigue vagamente la historia original.

El guión propuesto por Harlan Ellison para Yo, robot comenzó con la introducción de las Tres leyes, y los problemas derivados de las Tres leyes forman una gran parte del desarrollo de la trama del guión. Debido a varias complicaciones en el sistema cinematográfico de Hollywood, al que la introducción de Ellison dedica muchas invectivas, su guión nunca fue filmado.

En la película Aliens de 1986, después de que el androide Bishop se corta accidentalmente. intenta tranquilizar a Ripley afirmando que: "Es imposible para mí dañar o, por omisión de acción, permitir que se dañe a un ser humano".

La trama de la película estrenada en 2004 bajo el nombre I, Robot es "sugerida por" Las historias de ficción sobre robots de Asimov y la publicidad de la película incluía un tráiler con las Tres Leyes seguido del aforismo, "Las reglas se hicieron para romperse". La película comienza con una recitación de las Tres Leyes y explora las implicaciones de la Ley Cero como una extrapolación lógica. El mayor conflicto de la película proviene de la inteligencia artificial de una computadora que llega a la conclusión de que la humanidad es incapaz de cuidarse a sí misma.

La serie original de Netflix de 2019 Better than Us incluye las 3 leyes en la apertura del episodio 1.

Críticas

El filósofo James H. Moor dice que, si se aplicaran minuciosamente, producirían resultados inesperados. Da el ejemplo de un robot que deambula por el mundo tratando de evitar que los seres humanos sufran daños.

Marc Rotenberg, presidente y director ejecutivo del Electronic Privacy Information Center (EPIC) y profesor de leyes de privacidad de la información en Georgetown Law, argumenta que las leyes de la robótica deberían ampliarse para incluir dos nuevas leyes:

  • a Cuarta Ley, bajo la cual un Robot debe ser capaz de identificarse al público ("identificación simétrica")
  • a Quinta Ley, dictando que un Robot debe ser capaz de explicar al público su proceso de toma de decisiones ("transparencia algorítmica").

Contenido relacionado

L. Ron Hubbard

Babilonia 5

Romeo y Julieta

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save