Singularidad tecnológica
La singularidad tecnológica, o simplemente la singularidad, es un punto hipotético en el tiempo en el que el crecimiento tecnológico se volverá radicalmente más rápido e incontrolable, lo que dará como resultado cambios imprevisibles en la civilización humana. De acuerdo con la versión más popular de la hipótesis de la singularidad, el modelo de explosión de inteligencia de IJ Good, un agente inteligente actualizable eventualmente entrará en una "reacción descontrolada" de ciclos de superación personal, cada generación nueva y más inteligente aparecerá cada vez más rápidamente, causando un " explosión" en inteligencia y dando como resultado una poderosa superinteligencia que cualitativamente supera con creces a toda inteligencia humana.
La primera persona en utilizar el concepto de "singularidad" en el contexto tecnológico fue John von Neumann. Stanislaw Ulam informa de una discusión con von Neumann "centrada en el progreso acelerado de la tecnología y los cambios en el modo de vida humana, lo que da la apariencia de acercarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podía continuar". Autores posteriores se han hecho eco de este punto de vista.
El concepto y el término "singularidad" fueron popularizados por Vernor Vinge en su ensayo de 1993 The Coming Technological Singularity, en el que escribió que señalaría el final de la era humana, ya que la nueva superinteligencia continuaría actualizándose y avanzaría tecnológicamente. a un ritmo incomprensible. Escribió que le sorprendería si ocurriera antes de 2005 o después de 2030.
Los científicos, como Stephen Hawking, han expresado su preocupación de que la inteligencia artificial (IA) completa podría resultar en la extinción humana. Las consecuencias de la singularidad y su beneficio o daño potencial para la raza humana se han debatido intensamente.
Cuatro encuestas de investigadores de IA, realizadas en 2012 y 2013 por Nick Bostrom y Vincent C. Müller, sugirieron una confianza del 50 % en que la inteligencia artificial general (IAG) se desarrollaría entre 2040 y 2050.
Explosión de inteligencia
Aunque el progreso tecnológico se ha acelerado en la mayoría de las áreas (aunque se ha ralentizado en algunas), se ha visto limitado por la inteligencia básica del cerebro humano, que, según Paul R. Ehrlich, no ha cambiado significativamente durante milenios. Sin embargo, con el poder cada vez mayor de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina que sea significativamente más inteligente que los humanos.
Si se inventara una inteligencia sobrehumana, ya sea mediante la amplificación de la inteligencia humana o mediante la inteligencia artificial, mejoraría enormemente las habilidades inventivas y de resolución de problemas de los humanos. Tal IA se conoce como Seed AI porque si se creara una IA con capacidades de ingeniería que igualaran o superaran las de sus creadores humanos, tendría el potencial de mejorar de forma autónoma su propio software y hardware para diseñar una máquina aún más capaz, que podría repetir el proceso a su vez. Esta automejora recursiva podría acelerarse, permitiendo potencialmente un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o el cálculo teórico. Se especula que, a lo largo de muchas iteraciones, tal IA superaría con creces las capacidades cognitivas humanas.
IJ Good especuló en 1965 que la inteligencia artificial general podría provocar una explosión de inteligencia:
Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces incuestionablemente habría una 'explosión de inteligencia', y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control.
Otras manifestaciones
Surgimiento de la superinteligencia
Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que posee una inteligencia muy superior a la de las mentes humanas más brillantes y dotadas. "Superinteligencia" también puede referirse a la forma o grado de inteligencia que posee dicho agente. John von Neumann, Vernor Vinge y Ray Kurzweil definen el concepto en términos de creación tecnológica de superinteligencia, argumentando que es difícil o imposible para los humanos actuales predecir cómo sería la vida de los seres humanos en un mundo post-singularidad..
Los pronosticadores e investigadores de tecnología no están de acuerdo con respecto a cuándo, o si, la inteligencia humana probablemente será superada. Algunos argumentan que los avances en inteligencia artificial (IA) probablemente darán como resultado sistemas generales de razonamiento que superen las limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios futuros combinan estas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras, o carguen sus mentes en las computadoras, de una manera que permita una amplificación sustancial de la inteligencia. El libro The Age of Em de Robin Hanson describe un futuro en el que emergen cargas de cerebros humanos en lugar de o en camino a la aparición de la superinteligencia.
Singularidad sin IA
Algunos escritores usan "la singularidad" de una manera más amplia para referirse a cualquier cambio radical en nuestra sociedad provocado por nuevas tecnologías como la nanotecnología molecular, aunque Vinge y otros escritores afirman específicamente que sin superinteligencia, tales cambios no calificarían como una verdadera singularidad..
Superinteligencia de velocidad
Una superinteligencia de velocidad describe una IA que puede funcionar como una mente humana, solo que mucho más rápido. Por ejemplo, con un aumento de un millón de veces en la velocidad de procesamiento de la información en relación con la de los humanos, un año subjetivo pasaría en 30 segundos físicos. Tal diferencia en la velocidad de procesamiento de la información podría impulsar la singularidad.
Plausibilidad
Muchos tecnólogos y académicos prominentes han cuestionado la plausibilidad de una singularidad tecnológica, incluidos Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier y Gordon Moore, cuya ley se cita a menudo en apoyo del concepto.
La mayoría de los métodos propuestos para crear mentes sobrehumanas o transhumanas se clasifican en una de dos categorías: amplificación de inteligencia de cerebros humanos e inteligencia artificial. Las muchas formas especuladas de aumentar la inteligencia humana incluyen la bioingeniería, la ingeniería genética, los fármacos nootrópicos, los asistentes de IA, las interfaces directas cerebro-computadora y la carga mental. Estos múltiples caminos posibles hacia una explosión de inteligencia, todos los cuales presumiblemente se seguirán, hacen que una singularidad sea más probable.
Robin Hanson expresó su escepticismo sobre el aumento de la inteligencia humana y escribió que una vez que se haya agotado la "fruta madura" de los métodos fáciles para aumentar la inteligencia humana, las mejoras adicionales serán cada vez más difíciles. A pesar de todas las formas especuladas para amplificar la inteligencia humana, la inteligencia artificial no humana (específicamente la IA semilla) es la opción más popular entre las hipótesis que promoverían la singularidad.
La posibilidad de una explosión de inteligencia depende de tres factores. El primer factor acelerador son las nuevas mejoras de inteligencia que son posibles gracias a cada mejora anterior. Por el contrario, a medida que las inteligencias se vuelven más avanzadas, los avances adicionales se volverán más y más complicados, posiblemente superando la ventaja de una mayor inteligencia. Cada mejora debería generar al menos una mejora más, en promedio, para que continúe el movimiento hacia la singularidad. Finalmente, las leyes de la física pueden eventualmente impedir mejoras adicionales.
Hay dos causas lógicamente independientes, pero que se refuerzan mutuamente, de las mejoras de inteligencia: aumentos en la velocidad de cálculo y mejoras en los algoritmos utilizados. El primero está predicho por la Ley de Moore y las mejoras previstas en el hardware, y es comparativamente similar a los avances tecnológicos anteriores. Pero hay algunos investigadores de IA que creen que el software es más importante que el hardware.
Una encuesta por correo electrónico de 2017 a autores con publicaciones en las conferencias de aprendizaje automático de NeurIPS e ICML de 2015 preguntó sobre la posibilidad de una explosión de inteligencia. De los encuestados, el 12 % dijo que era "bastante probable", el 17 % dijo que era "probable", el 21 % dijo que era "casi igual", el 24 % dijo que era "poco probable" y el 26 % dijo que era "bastante improbable". ".
Mejoras de velocidad
Tanto para la inteligencia humana como para la artificial, las mejoras de hardware aumentan la tasa de futuras mejoras de hardware. Una analogía con la Ley de Moore sugiere que si la primera duplicación de la velocidad tomó 18 meses, la segunda tomaría 18 meses subjetivos; o 9 meses externos, en adelante, cuatro meses, dos meses, y así sucesivamente hasta una singularidad de velocidad. Eventualmente se puede alcanzar algún límite superior de velocidad. Jeff Hawkins ha declarado que un sistema informático que se mejora a sí mismo inevitablemente se toparía con límites superiores en la potencia informática: "al final, hay límites en cuanto al tamaño y la rapidez con que pueden ejecutarse los ordenadores. Terminaríamos en el mismo lugar; simplemente llegar allí un poco más rápido. No habría singularidad".
Es difícil comparar directamente el hardware basado en silicio con las neuronas. Pero Berglas (2008) señala que el reconocimiento de voz por computadora se está acercando a las capacidades humanas, y que esta capacidad parece requerir el 0,01% del volumen del cerebro. Esta analogía sugiere que el hardware de la computadora moderna está dentro de unos pocos órdenes de magnitud de ser tan poderoso como el cerebro humano.
Crecimiento exponencial
El crecimiento exponencial de la tecnología informática sugerido por la ley de Moore se cita comúnmente como una razón para esperar una singularidad en un futuro relativamente cercano, y varios autores han propuesto generalizaciones de la ley de Moore. El científico informático y futurista Hans Moravec propuso en un libro de 1998 que la curva de crecimiento exponencial podría extenderse a través de tecnologías informáticas anteriores al circuito integrado.
Ray Kurzweil postula una ley de rendimientos acelerados en la que la velocidad del cambio tecnológico (y más en general, de todos los procesos evolutivos) aumenta exponencialmente, generalizando la ley de Moore de la misma forma que la propuesta de Moravec, e incluyendo también la tecnología material (especialmente aplicada a la nanotecnología), tecnología médica y otros. Entre 1986 y 2007, la capacidad específica de la aplicación de las máquinas para calcular información per cápita se duplicó aproximadamente cada 14 meses; la capacidad per cápita de las computadoras de uso general del mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad mundial de almacenamiento per cápita se duplicó cada 40 meses.Por otro lado, se ha argumentado que el patrón de aceleración global que tiene la singularidad del siglo XXI como parámetro debería caracterizarse como hiperbólico en lugar de exponencial.
Kurzweil reserva el término "singularidad" para un rápido aumento de la inteligencia artificial (a diferencia de otras tecnologías), y escribe, por ejemplo, que "La Singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos y cerebros biológicos... No habrá distinción, post-Singularidad, entre humano y máquina". También define su fecha predicha de la singularidad (2045) en términos de cuándo espera que las inteligencias basadas en computadoras excedan significativamente la suma total de la capacidad intelectual humana, y escribe que los avances en computación antes de esa fecha "no representarán la Singularidad" porque sí lo hacen. “todavía no corresponden a una profunda expansión de nuestra inteligencia”.
Acelerando el cambio
Algunos defensores de la singularidad argumentan su inevitabilidad a través de la extrapolación de tendencias pasadas, especialmente aquellas relacionadas con acortar las brechas entre las mejoras tecnológicas. En uno de los primeros usos del término "singularidad" en el contexto del progreso tecnológico, Stanislaw Ulam cuenta una conversación con John von Neumann sobre la aceleración del cambio:
Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, lo que da la apariencia de acercarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar.
Kurzweil afirma que el progreso tecnológico sigue un patrón de crecimiento exponencial, siguiendo lo que él llama la "ley de los rendimientos acelerados". Cada vez que la tecnología se acerca a una barrera, escribe Kurzweil, las nuevas tecnologías la superarán. Él predice que los cambios de paradigma serán cada vez más comunes, lo que conducirá a "un cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". Kurzweil cree que la singularidad ocurrirá aproximadamente en 2045. Sus predicciones difieren de las de Vinge en que predice un ascenso gradual a la singularidad, en lugar de la inteligencia sobrehumana de Vinge que mejora rápidamente.
Los peligros citados a menudo incluyen aquellos comúnmente asociados con la nanotecnología molecular y la ingeniería genética. Estas amenazas son problemas importantes tanto para los defensores como para los críticos de la singularidad, y fueron el tema del artículo de la revista Wired de abril de 2000 de Bill Joy "Por qué el futuro no nos necesita".
Mejoras en el algoritmo
Algunas tecnologías de inteligencia, como la "IA semilla", también pueden tener el potencial no solo de hacerse más rápidas, sino también más eficientes, modificando su código fuente. Estas mejoras harían posibles mejoras adicionales, lo que haría posibles mejoras adicionales, y así sucesivamente.
El mecanismo para un conjunto de algoritmos de automejora recursiva difiere de un aumento en la velocidad de cálculo sin procesar de dos maneras. Primero, no requiere influencia externa: las máquinas que diseñan hardware más rápido aún requerirían humanos para crear el hardware mejorado o para programar las fábricas de manera apropiada. Una IA que reescribe su propio código fuente podría hacerlo mientras está contenida en una caja de IA.
En segundo lugar, al igual que con la concepción de la singularidad de Vernor Vinge, es mucho más difícil predecir el resultado. Si bien los aumentos de velocidad parecen ser solo una diferencia cuantitativa de la inteligencia humana, las mejoras reales del algoritmo serían cualitativamente diferentes. Eliezer Yudkowsky lo compara con los cambios que trajo la inteligencia humana: los humanos cambiaron el mundo miles de veces más rápido de lo que lo había hecho la evolución, y de maneras totalmente diferentes. De manera similar, la evolución de la vida fue una desviación y una aceleración masivas de las tasas de cambio geológico anteriores, y una inteligencia mejorada podría hacer que el cambio volviera a ser igual de diferente.
Hay peligros sustanciales asociados con una singularidad de explosión de inteligencia que se origina a partir de un conjunto de algoritmos de automejora recursiva. En primer lugar, la estructura de objetivos de la IA podría automodificarse, lo que podría hacer que la IA se optimice para algo distinto de lo que se pretendía originalmente.
En segundo lugar, las IA podrían competir por los mismos recursos escasos que utiliza la humanidad para sobrevivir. Si bien no son activamente maliciosas, las IA promoverían los objetivos de su programación, no necesariamente objetivos humanos más amplios, y por lo tanto podrían desplazar a los humanos por completo.
Carl Shulman y Anders Sandberg sugieren que las mejoras en los algoritmos pueden ser el factor limitante de una singularidad; mientras que la eficiencia del hardware tiende a mejorar a un ritmo constante, las innovaciones de software son más impredecibles y pueden verse obstaculizadas por la investigación acumulativa en serie. Sugieren que en el caso de una singularidad limitada por software, la explosión de inteligencia en realidad sería más probable que con una singularidad limitada por hardware, porque en el caso limitado por software, una vez que se desarrolla la IA a nivel humano, podría ejecutarse en serie en muy hardware rápido y la abundancia de hardware barato haría que la investigación de IA fuera menos limitada. Una gran cantidad de hardware acumulado que se puede liberar una vez que el software descubre cómo usarlo se ha denominado "exceso de cómputo".
Criticas
Algunos críticos, como el filósofo Hubert Dreyfus, afirman que las computadoras o las máquinas no pueden lograr la inteligencia humana, mientras que otros, como el físico Stephen Hawking, sostienen que la definición de inteligencia es irrelevante si el resultado neto es el mismo.
El psicólogo Steven Pinker declaró en 2008:
... No hay la menor razón para creer en una singularidad venidera. El hecho de que puedas visualizar un futuro en tu imaginación no es evidencia de que sea probable o incluso posible. Mire las ciudades abovedadas, los viajes en jet-pack, las ciudades submarinas, los edificios de una milla de altura y los automóviles de propulsión nuclear: todos los elementos básicos de las fantasías futuristas cuando era un niño que nunca llegaron. El poder de procesamiento puro no es un polvo mágico que resuelve mágicamente todos sus problemas....
El profesor de filosofía de la Universidad de California, Berkeley, John Searle, escribe:
[Las computadoras] tienen, literalmente..., sin inteligencia, sin motivación, sin autonomía, y sin agencia. Los diseñamos para que se comporten como si tuvieran ciertos tipos de psicología, pero no hay realidad psicológica en los procesos o comportamientos correspondientes.... [L]a maquinaria no tiene creencias, deseos, [o] motivaciones.
Martin Ford en The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future postula una "paradoja tecnológica" en el sentido de que antes de que pudiera ocurrir la singularidad, la mayoría de los trabajos rutinarios en la economía estarían automatizados, ya que esto requeriría un nivel de tecnología. inferior al de la singularidad. Esto provocaría un desempleo masivo y una caída en picado de la demanda de los consumidores, lo que a su vez destruiría el incentivo para invertir en las tecnologías que serían necesarias para lograr la Singularidad. El desplazamiento laboral ya no se limita cada vez más al trabajo tradicionalmente considerado "rutinario".
Theodore Modis y Jonathan Huebner argumentan que la tasa de innovación tecnológica no solo ha dejado de aumentar, sino que ahora está disminuyendo. La evidencia de este declive es que el aumento en las velocidades de reloj de las computadoras se está desacelerando, incluso mientras la predicción de Moore de un aumento exponencial de la densidad del circuito continúa siendo válida. Esto se debe a la acumulación excesiva de calor del chip, que no se puede disipar lo suficientemente rápido como para evitar que el chip se derrita cuando se opera a velocidades más altas. Los avances en la velocidad pueden ser posibles en el futuro en virtud de diseños de CPU más eficientes en el uso de energía y procesadores de celdas múltiples. Si bien Kurzweil usó los recursos de Modis, y el trabajo de Modis se centró en acelerar el cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico.En un artículo de 2021, Modis señaló que no se habían observado hitos (rupturas en la perspectiva histórica comparables en importancia a Internet, el ADN, el transistor o la energía nuclear) en los veinte años anteriores, mientras que cinco de ellos se habrían esperado según la tendencia exponencial preconizada por los defensores de la singularidad tecnológica.
En una contabilidad empírica detallada, The Progress of Computing, William Nordhaus argumentó que, antes de 1940, las computadoras siguieron el crecimiento mucho más lento de una economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo XIX.
En un artículo de 2007, Schmidhuber afirmó que la frecuencia de "eventos notables" subjetivos parece estar acercándose a una singularidad del siglo XXI, pero advirtió a los lectores que tomen tales tramas de eventos subjetivos con un grano de sal: quizás diferencias en la memoria de eventos recientes y lejanos. los eventos podrían crear la ilusión de un cambio acelerado donde no existe ninguno.
Paul Allen argumentó lo contrario de acelerar los retornos, el freno a la complejidad; cuanto más avanza la ciencia hacia la comprensión de la inteligencia, más difícil se vuelve hacer progresos adicionales. Un estudio del número de patentes muestra que la creatividad humana no muestra rendimientos acelerados, sino, de hecho, como sugiere Joseph Tainter en su The Collapse of Complex Societies, una ley de rendimientos decrecientes. El número de patentes por mil alcanzó su punto máximo en el período de 1850 a 1900 y ha ido disminuyendo desde entonces. El crecimiento de la complejidad finalmente se vuelve autolimitante y conduce a un "colapso general de los sistemas" generalizado.
Jaron Lanier refuta la idea de que la Singularidad es inevitable. Afirma: "No creo que la tecnología se esté creando a sí misma. No es un proceso autónomo". Continúa afirmando: "La razón para creer en la agencia humana sobre el determinismo tecnológico es que luego puedes tener una economía donde las personas se ganan la vida a su manera e inventan sus propias vidas. Si estructura una sociedad sin enfatizar la agencia humana individual, es Operacionalmente, es lo mismo que negar a las personas influencia, dignidad y autodeterminación... abrazar [la idea de la Singularidad] sería una celebración de los malos datos y la mala política".
El economista Robert J. Gordon, en The Rise and Fall of American Growth: The US Standard of Living Since the Civil War (2016), señala que el crecimiento económico medido se desaceleró alrededor de 1970 y se desaceleró aún más desde la crisis financiera de 2007-2008., y argumenta que los datos económicos no muestran ningún rastro de una Singularidad venidera como la imaginó el matemático IJ Good.
El filósofo y científico cognitivo Daniel Dennett dijo en una entrevista de The Guardian en 2017: "Todo el asunto de la singularidad es absurdo. Nos distrae de problemas mucho más apremiantes", y agregó que "las herramientas de inteligencia artificial de las que nos volvemos hiperdependientes, eso va a suceder". Y uno de los peligros es que les daremos más autoridad de la que merecen”.
Además de las críticas generales al concepto de singularidad, varios críticos han planteado problemas con el gráfico icónico de Kurzweil. Una línea de crítica es que un gráfico logarítmico de esta naturaleza está inherentemente sesgado hacia un resultado de línea recta. Otros identifican un sesgo de selección en los puntos que elige utilizar Kurzweil. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "eventos" evolutivos fueron elegidos arbitrariamente. Kurzweil ha refutado esto trazando eventos evolutivos de 15 fuentes neutrales y mostrando que encajan en una línea recta en un gráfico logarítmico. The Economist se burló del concepto con un gráfico que extrapolaba que el número de hojas de una maquinilla de afeitar, que ha aumentado a lo largo de los años de uno a cinco, aumentará cada vez más rápido hasta el infinito.
Impactos potenciales
En el pasado se han producido cambios drásticos en la tasa de crecimiento económico debido al avance tecnológico. Según el crecimiento de la población, la economía se duplicó cada 250.000 años desde la era paleolítica hasta la revolución neolítica. La nueva economía agrícola se duplicó cada 900 años, un aumento notable. En la era actual, comenzando con la Revolución Industrial, la producción económica mundial se duplica cada quince años, sesenta veces más rápido que durante la era agrícola. Si el surgimiento de la inteligencia sobrehumana provoca una revolución similar, argumenta Robin Hanson, uno esperaría que la economía se duplicara al menos trimestralmente y posiblemente semanalmente.
Incertidumbre y riesgo
El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir repentinamente y que es difícil predecir cómo operaría el nuevo mundo resultante. No está claro si una explosión de inteligencia que resulte en una singularidad sería beneficiosa o dañina, o incluso una amenaza existencial. Debido a que la IA es un factor importante en el riesgo de singularidad, varias organizaciones siguen una teoría técnica para alinear los sistemas de objetivos de la IA con los valores humanos, incluido el Instituto del Futuro de la Humanidad, el Instituto de Investigación de Inteligencia de Máquinas, el Centro de Inteligencia Artificial Compatible con Humanos, y el Instituto Futuro de la Vida.
El físico Stephen Hawking dijo en 2014 que "el éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos cómo evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", como "la tecnología supera a los mercados financieros, supera a los investigadores humanos, manipula a los líderes humanos y desarrolla armas que ni siquiera podemos entender". Hawking sugirió que la inteligencia artificial debería tomarse más en serio y que debería hacerse más para prepararse para la singularidad:
Entonces, ante posibles futuros de beneficios y riesgos incalculables, seguramente los expertos están haciendo todo lo posible para asegurar el mejor resultado, ¿no? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿simplemente responderíamos: "Está bien, llámanos cuando llegues, dejaremos las luces encendidas"? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.
Berglas (2008) afirma que no existe una motivación evolutiva directa para que una IA sea amigable con los humanos. La evolución no tiene una tendencia inherente a producir resultados valorados por los humanos, y hay pocas razones para esperar que un proceso de optimización arbitrario promueva un resultado deseado por la humanidad, en lugar de conducir inadvertidamente a que una IA se comporte de una manera no prevista por sus creadores. Anders Sandberg también ha desarrollado este escenario, abordando varios contraargumentos comunes. El investigador de inteligencia artificial Hugo de Garis sugiere que las inteligencias artificiales pueden simplemente eliminar a la raza humana para acceder a recursos escasos, y los humanos serían impotentes para detenerlos. Alternativamente, las IA desarrolladas bajo la presión evolutiva para promover su propia supervivencia podrían superar a la humanidad.
Bostrom (2002) analiza los escenarios de extinción humana y enumera la superinteligencia como una posible causa:
Cuando creamos la primera entidad superinteligente, podemos cometer un error y darle objetivos que la lleven a aniquilar a la humanidad, suponiendo que su enorme ventaja intelectual le dé el poder para hacerlo. Por ejemplo, podríamos por error elevar un subobjetivo a la categoría de superobjetivo. Le decimos que resuelva un problema matemático, y cumple convirtiendo toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.
Según Eliezer Yudkowsky, un problema importante en la seguridad de la IA es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la IA amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinea con los valores humanos y no automáticamente. destruir la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. Bill Hibbard (2014) propone un diseño de IA que evita varios peligros, incluidos el autoengaño, las acciones instrumentales no intencionadas,y corrupción del generador de recompensas. También analiza los impactos sociales de la IA y las pruebas de la IA. Su libro Super-Intelligent Machines de 2001 aboga por la necesidad de educación pública sobre la IA y el control público sobre la IA. También propuso un diseño simple que era vulnerable a la corrupción del generador de recompensas.
El siguiente paso de la evolución sociobiológica
Si bien la singularidad tecnológica generalmente se ve como un evento repentino, algunos académicos argumentan que la velocidad actual del cambio ya se ajusta a esta descripción.
Además, algunos argumentan que ya estamos en medio de una gran transición evolutiva que fusiona la tecnología, la biología y la sociedad. La tecnología digital se ha infiltrado en el tejido de la sociedad humana hasta un grado de dependencia indiscutible y, a menudo, vital.
Un artículo de 2016 en Trends in Ecology & Evolution sostiene que "los humanos ya adoptan fusiones de biología y tecnología. Pasamos la mayor parte de nuestro tiempo despiertos comunicándonos a través de canales mediados digitalmente... confiamos en la inteligencia artificial con nuestras vidas a través de frenos antibloqueo en automóviles y pilotos automáticos. en aviones... Con uno de cada tres matrimonios en Estados Unidos comenzando en línea, los algoritmos digitales también están desempeñando un papel en la unión y reproducción de la pareja humana".
El artículo argumenta además que, desde la perspectiva de la evolución, varias transiciones importantes anteriores en la evolución han transformado la vida a través de innovaciones en el almacenamiento y la replicación de la información (ARN, ADN, multicelularidad y cultura y lenguaje). En la etapa actual de la evolución de la vida, la biosfera basada en el carbono ha generado un sistema cognitivo (humanos) capaz de crear tecnología que resultará en una transición evolutiva comparable.
La información digital creada por los humanos ha alcanzado una magnitud similar a la información biológica en la biosfera. Desde la década de 1980, la cantidad de información digital almacenada se ha duplicado aproximadamente cada 2,5 años, alcanzando unos 5 zettabytes en 2014 (5 × 10 bytes).
En términos biológicos, hay 7200 millones de humanos en el planeta, cada uno con un genoma de 6200 millones de nucleótidos. Dado que un byte puede codificar cuatro pares de nucleótidos, los genomas individuales de cada ser humano en el planeta podrían codificarse en aproximadamente 1 × 10 bytes. El ámbito digital almacenó 500 veces más información que esto en 2014 (ver figura). Se estima que la cantidad total de ADN contenida en todas las células de la Tierra es de aproximadamente 5,3 × 10 pares de bases, lo que equivale a 1,325 × 10 bytes de información.
Si el crecimiento del almacenamiento digital continúa a su tasa actual de crecimiento anual compuesto del 30% al 38% por año, rivalizará con el contenido de información total contenido en todo el ADN en todas las células de la Tierra en aproximadamente 110 años. Esto representaría duplicar la cantidad de información almacenada en la biosfera en un período de tiempo total de solo 150 años".
Implicaciones para la sociedad humana
En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de científicos informáticos líderes, investigadores de inteligencia artificial y expertos en robótica en Asilomar en Pacific Grove, California. El objetivo era discutir el impacto potencial de la posibilidad hipotética de que los robots pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía y hasta qué punto podrían usar tales habilidades para representar amenazas o peligros.
Algunas máquinas están programadas con varias formas de semiautonomía, incluida la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y, según los científicos presentes, podría decirse que han alcanzado una etapa de "cucaracha" de inteligencia artificial. Los asistentes a la conferencia señalaron que la autoconciencia tal como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales.
Frank S. Robinson predice que una vez que los humanos logren una máquina con la inteligencia humana, los problemas científicos y tecnológicos se abordarán y resolverán con una capacidad intelectual muy superior a la de los humanos. Señala que los sistemas artificiales pueden compartir datos más directamente que los humanos y predice que esto daría como resultado una red global de superinteligencia que empequeñecería la capacidad humana. Robinson también analiza cuán diferente sería potencialmente el futuro después de tal explosión de inteligencia. Un ejemplo de esto es la energía solar, donde la Tierra recibe mucha más energía solar de la que captura la humanidad, por lo que capturar más de esa energía solar sería una gran promesa para el crecimiento de la civilización.
Despegue duro vs suave
En un escenario de despegue difícil, un AGI se automejora rápidamente, "tomando el control" del mundo (quizás en cuestión de horas), demasiado rápido para una corrección de errores significativa iniciada por humanos o para un ajuste gradual de los objetivos del AGI. En un escenario de despegue suave, AGI aún se vuelve mucho más poderoso que la humanidad, pero a un ritmo similar al humano (quizás del orden de décadas), en una escala de tiempo en la que la interacción y la corrección humanas en curso pueden dirigir efectivamente el desarrollo de AGI.
Ramez Naam se opone a un despegue duro. Ha señalado que ya vemos una autosuperación recursiva por parte de las superinteligencias, como las corporaciones. Intel, por ejemplo, tiene "la capacidad intelectual colectiva de decenas de miles de humanos y probablemente millones de núcleos de CPU para... diseñar mejores CPU". Sin embargo, esto no ha supuesto un despegue duro; más bien, ha llevado a un despegue suave en la forma de la ley de Moore. Naam señala además que la complejidad computacional de la inteligencia superior puede ser mucho mayor que la lineal, de modo que "crear una mente de inteligencia 2 es probablemente más del doble de difícil que crear una mente de inteligencia 1".
J. Storrs Hall cree que "muchos de los escenarios más comunes para el despegue brusco de la noche a la mañana son circulares: parecen asumir capacidades hiperhumanas en el punto de partida del proceso de superación personal" para que una IA pueda hacer el dramático, mejoras generales de dominio requeridas para el despegue. Hall sugiere que, en lugar de auto-mejorar recursivamente su hardware, software e infraestructura por su cuenta, sería mejor que una IA incipiente se especializara en un área donde fuera más efectiva y luego comprara los componentes restantes en el mercado, porque la calidad de productos en el mercado mejora continuamente, y la IA tendría dificultades para mantenerse al día con la tecnología de punta utilizada por el resto del mundo.
Ben Goertzel está de acuerdo con la sugerencia de Hall de que una nueva IA a nivel humano haría bien en usar su inteligencia para acumular riqueza. Los talentos de la IA podrían inspirar a las empresas y los gobiernos a dispersar su software por toda la sociedad. Goertzel se muestra escéptico sobre un despegue duro de cinco minutos, pero especula que un despegue de nivel humano a sobrehumano del orden de cinco años es razonable. Goerzel se refiere a este escenario como un "despegue semiduro".
Max More no está de acuerdo y argumenta que si solo hubiera unas pocas IA súper rápidas a nivel humano, no cambiarían radicalmente el mundo, ya que aún dependerían de otras personas para hacer las cosas y aún tendrían limitaciones cognitivas humanas. Incluso si todas las IA superrápidas trabajaran en el aumento de la inteligencia, no está claro por qué lo harían mejor de manera discontinua que los científicos cognitivos humanos existentes en la producción de inteligencia sobrehumana, aunque la tasa de progreso aumentaría. More argumenta además que una superinteligencia no transformaría el mundo de la noche a la mañana: una superinteligencia necesitaría interactuar con los sistemas humanos lentos existentes para lograr impactos físicos en el mundo. "La necesidad de colaboración, de organización,
Inmortalidad
En su libro de 2005, The Singularity Is Near, Kurzweil sugiere que los avances médicos permitirían a las personas proteger sus cuerpos de los efectos del envejecimiento, haciendo que la esperanza de vida fuera ilimitada. Kurzweil argumenta que los avances tecnológicos en medicina nos permitirían reparar y reemplazar continuamente los componentes defectuosos de nuestro cuerpo, prolongando la vida hasta una edad indeterminada. Kurzweil refuerza aún más su argumento discutiendo los avances actuales en bioingeniería. Kurzweil sugiere terapia génica somática; tras los virus sintéticos con información genética específica, el siguiente paso sería aplicar esta tecnología a la terapia génica, reemplazando el ADN humano por genes sintetizados.
K. Eric Drexler, uno de los fundadores de la nanotecnología, postuló dispositivos de reparación celular, incluidos los que operan dentro de las células y utilizan máquinas biológicas hipotéticas, en su libro Engines of Creation de 1986.
Según Richard Feynman, fue su ex estudiante de posgrado y colaborador Albert Hibbs quien le sugirió originalmente (alrededor de 1959) la idea de un uso médico para las micromáquinas teóricas de Feynman. Hibbs sugirió que ciertas máquinas de reparación podrían algún día reducirse en tamaño hasta el punto de que, en teoría, sería posible (como dijo Feynman) "tragarse al médico". La idea se incorporó al ensayo de Feynman de 1959 Hay mucho espacio en el fondo.
Más allá de simplemente extender la vida operativa del cuerpo físico, Jaron Lanier aboga por una forma de inmortalidad llamada "Ascensión digital" que involucra "personas que mueren en carne y hueso y se cargan en una computadora y permanecen conscientes".
Historia del concepto
Un artículo de Mahendra Prasad, publicado en AI Magazine, afirma que el matemático del siglo XVIII Marqués de Condorcet fue la primera persona en formular hipótesis y modelar matemáticamente una explosión de inteligencia y sus efectos en la humanidad.
Una de las primeras descripciones de la idea se hizo en el cuento de John W. Campbell de 1932 "La última evolución".
En su obituario de 1958 para John von Neumann, Ulam recordó una conversación con von Neumann sobre el "progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar".
En 1965, Good escribió su ensayo postulando una "explosión de inteligencia" de automejora recursiva de una inteligencia artificial.
En 1981, Stanisław Lem publicó su novela de ciencia ficción Golem XIV. Describe una computadora militar de IA (Golem XIV) que obtiene conciencia y comienza a aumentar su propia inteligencia, moviéndose hacia la singularidad tecnológica personal. Golem XIV fue creado originalmente para ayudar a sus constructores a luchar en las guerras, pero a medida que su inteligencia avanza a un nivel mucho más alto que el de los humanos, deja de interesarse por los requisitos militares porque los encuentra carentes de coherencia lógica interna.
En 1983, Vernor Vinge popularizó enormemente la explosión de inteligencia de Good en una serie de escritos, abordando el tema por primera vez en forma impresa en la edición de enero de 1983 de la revista Omni. En este artículo de opinión, Vinge parece haber sido el primero en utilizar el término "singularidad" de una manera específicamente vinculada a la creación de máquinas inteligentes:
Pronto crearemos inteligencias superiores a la nuestra. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el anudado espacio-tiempo en el centro de un agujero negro, y el mundo pasará mucho más allá de nuestra comprensión. Esta singularidad, creo, ya persigue a varios escritores de ciencia ficción. Hace imposible la extrapolación realista a un futuro interestelar. Para escribir una historia ambientada dentro de más de un siglo, se necesita una guerra nuclear intermedia... para que el mundo siga siendo inteligible.
En 1985, en "La escala de tiempo de la inteligencia artificial", el investigador de inteligencia artificial Ray Solomonoff articuló matemáticamente la noción relacionada de lo que llamó un "punto infinito": si una comunidad de investigación de IA automejorables a nivel humano tarda cuatro años en duplicarse su propia velocidad, luego dos años, luego un año y así sucesivamente, sus capacidades aumentan infinitamente en un tiempo finito.
La singularidad tecnológica es una parte importante de la trama de Marooned in Realtime (1986) de Vernor Vinge, una novela de ciencia ficción en la que algunos humanos restantes que viajan hacia el futuro han sobrevivido a un evento de extinción desconocido que bien podría ser una singularidad. En un breve epílogo, el autor afirma que una singularidad tecnológica real no sería el fin de la especie humana: "por supuesto, parece muy poco probable que la Singularidad sea una desaparición limpia de la raza humana. (Por otro lado, tal un desvanecimiento es el análogo temporal del silencio que encontramos en todo el cielo.)".
El artículo de Vinge de 1993 "La singularidad tecnológica que se avecina: cómo sobrevivir en la era poshumana", se difundió ampliamente en Internet y ayudó a popularizar la idea. Este artículo contiene la declaración: "Dentro de treinta años, tendremos los medios tecnológicos para crear una inteligencia sobrehumana. Poco después, la era humana terminará". Vinge argumenta que los autores de ciencia ficción no pueden escribir personajes realistas posteriores a la singularidad que superen el intelecto humano, ya que los pensamientos de tal intelecto estarían más allá de la capacidad de expresión de los humanos.
En 2000, Bill Joy, un destacado tecnólogo y cofundador de Sun Microsystems, expresó su preocupación por los peligros potenciales de la singularidad.
En 2005, Kurzweil publicó The Singularity Is Near. La campaña publicitaria de Kurzweil incluyó una aparición en The Daily Show con Jon Stewart.
En 2007, Eliezer Yudkowsky sugirió que muchas de las diversas definiciones que se han asignado a la "singularidad" son mutuamente incompatibles en lugar de apoyarse mutuamente. Por ejemplo, Kurzweil extrapola las trayectorias tecnológicas actuales más allá de la llegada de la IA automejorable o la inteligencia sobrehumana, lo que, según Yudkowsky, representa una tensión tanto con el aumento discontinuo de la inteligencia propuesto por IJ Good como con la tesis de Vinge sobre la imprevisibilidad.
En 2009, Kurzweil y el fundador de X-Prize, Peter Diamandis, anunciaron el establecimiento de Singularity University, un instituto privado no acreditado cuya misión declarada es "educar, inspirar y empoderar a los líderes para aplicar tecnologías exponenciales para abordar los grandes desafíos de la humanidad". Financiada por Google, Autodesk, ePlanet Ventures y un grupo de líderes de la industria tecnológica, Singularity University tiene su sede en el Centro de Investigación Ames de la NASA en Mountain View, California. La organización sin fines de lucro ejecuta un programa de posgrado anual de diez semanas durante el verano que cubre diez tecnologías diferentes y áreas afines, y una serie de programas ejecutivos durante todo el año.
En política
En 2007, el Comité Económico Conjunto del Congreso de los Estados Unidos publicó un informe sobre el futuro de la nanotecnología. Pronostica importantes cambios tecnológicos y políticos en el futuro a medio plazo, incluida una posible singularidad tecnológica.
El expresidente de los Estados Unidos, Barack Obama, habló sobre la singularidad en su entrevista con Wired en 2016:
Una cosa de la que no hemos hablado demasiado, y solo quiero volver, es que realmente tenemos que pensar en las implicaciones económicas. Porque la mayoría de las personas no pasan mucho tiempo en este momento preocupándose por la singularidad, se preocupan por "Bueno, ¿mi trabajo será reemplazado por una máquina?"
Contenido relacionado
Barcaza
Barco pt
Arcadia 2001