Superinteligencia
a Superinteligencia es un agente hipotético que posee inteligencia que supera con creces la de las mentes humanas más brillantes y talentadas. " Superintelligence " También puede referirse a una propiedad de los sistemas de resolución de problemas (por ejemplo, traductores de idiomas superinteligentes o asistentes de ingeniería) si estas competencias intelectuales de alto nivel están incorporadas en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y asociada con una singularidad tecnológica.
El filósofo de la Universidad de Oxford Nick Bostrom define Superinteligencia como " cualquier intelecto que exceda en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés ". El programa Fritz no alcanza esta concepción de la superinteligencia, aunque es mucho mejor que los humanos en el ajedrez, porque Fritz no puede superar a los humanos en otras tareas. Después de Hutter y Legg, Bostrom trata la superinteligencia como el dominio general en el comportamiento orientado a objetivos, dejando abierto si un superinteligencia artificial o humana poseería capacidades como la intencionalidad (cf. El argumento de la sala china) o la conciencia en primera persona (cf. el problema difícil de conciencia).
Los investigadores tecnológicos no están de acuerdo sobre la probabilidad de que se supere la inteligencia humana actual. Algunos argumentan que los avances en la inteligencia artificial (IA) probablemente darán como resultado sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o cargan sus mentes a las computadoras, de una manera que permita una amplificación de inteligencia sustancial.
Algunos investigadores creen que la superinteligencia probablemente seguirá poco después del desarrollo de la inteligencia general artificial. Es probable que las primeras máquinas generalmente inteligentes tengan inmediatamente una enorme ventaja en al menos algunas formas de capacidad mental, incluida la capacidad del recuerdo perfecto, una base de conocimiento ampliamente superior y la capacidad de multitar de manera que no sea posible para las entidades biológicas. Esto puede darles la oportunidad de, ya sea como un ser soltero o como una nueva especie, es mucho más poderoso que los humanos y desplazarlos.
Varios científicos y pronosticadores defienden para priorizar la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y máquina, debido al impacto social potencial de tales tecnologías.
viabilidad de la superinteligencia artificial

La tasa de error de AI por año. La línea roja representa la tasa de error de un humano entrenado.
El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino muy probable hacia la inteligencia sobrehumana. Chalmers descompone esta afirmación en un argumento de que la IA puede alcanzar una equivalencia con la inteligencia humana, que puede ampliarse para superar la inteligencia humana y que puede ser más amplificado para dominar completamente a los humanos en tareas arbitrarias.
Con respecto a la equivalencia a nivel humano, Chalmers sostiene que el cerebro humano es un sistema mecánico y, por lo tanto, debería ser emulado por materiales sintéticos. También señala que la inteligencia humana pudo evolucionar biológicamente, lo que hace más probable que los ingenieros humanos puedan recapitular esta invención. Los algoritmos evolutivos en particular deberían poder producir IA a nivel humano. En cuanto a la extensión y amplificación de la inteligencia, Chalmers sostiene que las nuevas tecnologías de IA en general se pueden mejorar, y que esto es particularmente probable cuando la invención puede ayudar a diseñar nuevas tecnologías.
Un sistema de IA capaz de mejorarse a sí mismo podría mejorar su propia inteligencia, volviéndose así más eficiente a la hora de mejorarse a sí mismo. Este ciclo de "superación personal recursiva" podría causar una explosión de inteligencia, lo que resultaría en la creación de una superinteligencia.
Los componentes informáticos ya superan con creces el rendimiento humano en velocidad. Bostrom escribe: "Las neuronas biológicas funcionan a una velocidad máxima de aproximadamente 200 Hz, siete órdenes de magnitud más lentas que un microprocesador moderno (~2 GHz)." Además, las neuronas transmiten señales de pico a través de los axones a no más de 120 m/s, "mientras que los núcleos de procesamiento electrónico existentes pueden comunicarse ópticamente a la velocidad de la luz". Por lo tanto, el ejemplo más simple de superinteligencia puede ser una mente humana emulada ejecutada en un hardware mucho más rápido que el cerebro. Un razonador parecido a un humano que pudiera pensar millones de veces más rápido que los humanos actuales tendría una ventaja dominante en la mayoría de las tareas de razonamiento, particularmente aquellas que requieren prisa o largas cadenas de acciones.
Otra ventaja de las computadoras es la modularidad, es decir, se puede aumentar su tamaño o capacidad computacional. Un cerebro no humano (o humano modificado) podría llegar a ser mucho más grande que un cerebro humano actual, como muchas supercomputadoras. Bostrom también plantea la posibilidad de una superinteligencia colectiva: un número suficientemente grande de sistemas de razonamiento separados, si se comunicaran y coordinaran lo suficientemente bien, podrían actuar en conjunto con capacidades mucho mayores que cualquier subagente.
También puede haber formas de mejorar cualitativamente el razonamiento humano y la toma de decisiones. Los humanos superan a los animales no humanos en gran parte debido a capacidades de razonamiento nuevas o mejoradas, como la planificación a largo plazo y el uso del lenguaje. (Ver evolución de la inteligencia humana y la cognición de los primates.) Si hay otras posibles mejoras en el razonamiento que tendrían un impacto similar, esto hace más probable que se pueda construir un agente que supere a los humanos de la misma manera que los humanos superan a los chimpancés.
Todas las ventajas anteriores son válidas para la superinteligencia artificial, pero no está claro cuántas son válidas para la superinteligencia biológica. Las limitaciones fisiológicas limitan la velocidad y el tamaño de los cerebros biológicos de muchas maneras que son inaplicables a la inteligencia artificial. Como tal, los escritores sobre superinteligencia han dedicado mucha más atención a los escenarios de IA superinteligente.
Viabilidad de la superinteligencia biológica
Carl Sagan sugirió que la llegada de las cesáreas y la fertilización in vitro puede permitir a los humanos desarrollar cabezas más grandes, lo que resulta en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana. Por el contrario, Gerald Crabtree ha argumentado que la disminución de la presión de selección está dando como resultado una reducción lenta, que dura siglos, de la inteligencia humana y que es probable que este proceso continúe en el futuro. No existe consenso científico sobre ninguna de las dos posibilidades, y en ambos casos el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.
La cría selectiva, los nootrópicos, la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético previo a la implantación podría usarse para seleccionar embriones con hasta 4 puntos de ganancia de coeficiente intelectual (si se selecciona un embrión entre dos), o con ganancias mayores. (por ejemplo, se ganan hasta 24,3 puntos de coeficiente intelectual si se selecciona un embrión entre 1000). Si este proceso se repite a lo largo de muchas generaciones, las ganancias podrían ser de un orden de magnitud mayor. Bostrom sugiere que la obtención de nuevos gametos a partir de células madre embrionarias podría utilizarse para repetir el proceso de selección muy rápidamente. Esta noción, selección iterada de embriones, ha recibido un amplio tratamiento por parte de otros autores. Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría alcanzar potencialmente la superinteligencia colectiva.
Alternativamente, la inteligencia colectiva podría ser construible organizando mejor a los humanos en los niveles actuales de inteligencia individual. Varios escritores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está llegando a funcionar como un cerebro global con capacidades que superan con creces a los agentes que la componen. Sin embargo, si esta superinteligencia basada en sistemas depende en gran medida de componentes artificiales, puede calificarse como una IA en lugar de un superorganismo basado en la biología. Un mercado de predicción a veces se considera un ejemplo de sistema de inteligencia colectiva en funcionamiento, compuesto únicamente por humanos (suponiendo que no se utilicen algoritmos para informar las decisiones).
Un último método de amplificación de la inteligencia sería mejorar directamente a los humanos individuales, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos, terapia génica somática o interfaces cerebro-computadora. Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y sostiene que diseñar una interfaz cyborg superinteligente es un problema completo de IA.
Previsiones
La mayoría de los investigadores de IA encuestados esperan que las máquinas eventualmente puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo sucederá esto. En la conferencia AI@50 de 2006, el 18% de los asistentes informaron que esperaban que las máquinas pudieran "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; El 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito.
En una encuesta de los 100 autores más citados en IA (a mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban máquinas "que puedan realizar la mayoría de las profesiones humanas al menos tan bien" como un ser humano típico" (suponiendo que no ocurra ninguna catástrofe global) con un 10 % de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50 % de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90 % de confianza es 2070 (media 2168, st. dev. 342 años). Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría el 10% de confianza, al 4,1% que dijo 'nunca' para un 50% de confianza, y el 16,5% que dijo 'nunca' para un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que la superinteligencia de las máquinas se invente dentro de los 30 años siguientes a la invención de la inteligencia de las máquinas aproximadamente a nivel humano.
En una encuesta de 2022, el año medio en el que los encuestados esperaban una "inteligencia automática de alto nivel" con un 50% de confianza es 2061. La encuesta definió el logro de inteligencia artificial de alto nivel cuando las máquinas sin ayuda pueden realizar todas las tareas mejor y más económicamente que los trabajadores humanos.
En 2023, los líderes de OpenAI publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años.
Consideraciones de diseño
Bostrom expresó su preocupación sobre los valores que debería tener una superinteligencia. Comparó varias propuestas:
- La propuesta coherente de volición extrapolada es que debe tener los valores sobre los cuales convergen los seres humanos.
- La propuesta de la rectitud moral es que debe valorar la rectitud moral.
- La propuesta de permisibilidad moral (MP) es que debe valorar permanecer dentro de los límites de la validez moral (y de otro modo tener valores CEV).
Bostrom aclara estos términos:
en lugar de implementar la volición extrapolada coherente de la humanidad, uno podría intentar construir una IA con el objetivo de hacer lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para averiguar qué acciones encajan en esa descripción. Podemos llamar a esta propuesta "derecho moral" (MR)... MR también parece tener algunas desventajas. Se basa en la noción de "derecho moral", un concepto notoriamente difícil, con el que los filósofos han arraigado desde la antigüedad sin alcanzar aún el consenso sobre su análisis. Escoger una explicación errónea de la "justicia moral" podría resultar en resultados que serían moralmente muy equivocados... El camino para dotar a una AI con cualquiera de estos conceptos [morales] podría implicar darle capacidad lingüística general (comparable, al menos, a la de un adulto humano normal). Tal capacidad general para entender el lenguaje natural podría entonces ser utilizada para entender lo que significa "derecho moral". Si la AI pudiera captar el significado, podría buscar acciones que encajaran...
Uno podría tratar de preservar la idea básica del modelo MR al tiempo que reduce su demanda al centrarse en moral permisibilidad: la idea de que podríamos dejar que la AI persiga el CEV de la humanidad mientras no actuara de maneras que son moralmente impermisibles.
Amenaza potencial para la humanidad
Se ha sugerido que si los sistemas de IA se vuelven superinteligentes rápidamente, podrían tomar acciones imprevistas o superar a la humanidad. Los investigadores han argumentado que, a través de una "explosión de inteligencia", Una IA que se mejora a sí misma podría volverse tan poderosa que los humanos podrían imparable.
En cuanto a los escenarios de extinción humana, Bostrom (2002) identifica la superinteligencia como una posible causa:
Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que lo llevan a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder de hacerlo. Por ejemplo, podríamos por error elevar un subgoal al estado de un supergoal. Lo decimos para resolver un problema matemático, y cumple convirtiendo todo el asunto en el sistema solar en un dispositivo de cálculo gigante, en el proceso matando a la persona que hizo la pregunta.
En teoría, dado que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de impedir la implementación de sus objetivos, podrían surgir muchas consecuencias incontroladas e involuntarias. Podría matar a todos los demás agentes, persuadirlos a cambiar su comportamiento o bloquear sus intentos de interferencia. Eliezer Yudkowsky ilustra esa convergencia instrumental de la siguiente manera: "La IA no te odia ni te ama, pero estás hecho de átomos que puede utilizar para otra cosa".
Esto presenta el problema del control de la IA: cómo construir un agente inteligente que ayude a sus creadores, evitando al mismo tiempo construir inadvertidamente una superinteligencia que dañará a sus creadores. El peligro de no diseñar bien el control “la primera vez” es que una superinteligencia puede ser capaz de tomar el poder sobre su entorno e impedir que los humanos lo apaguen, para lograr sus objetivos. Las posibles estrategias de control de la IA incluyen el "control de capacidad" (limitando la capacidad de una IA para influir en el mundo) y el "control motivacional" (construyendo una IA cuyos objetivos estén alineados con los valores humanos).