Nick Bostrom
Nick Bostrom (BOST-rəm; sueco: Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm]; nacido el 10 de marzo de 1973) es un filósofo sueco de la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial., el principio antrópico, la ética de la mejora humana, la emulación de todo el cerebro, los riesgos de la superinteligencia y la prueba de reversión. Es el director fundador del Instituto del Futuro de la Humanidad de la Universidad de Oxford.
Bostrom es autor de Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) y Superintelligence: Paths, Dangers, Strategies (2014), una publicación de Nueva York. Mejor vendido del Times.
Bostrom cree que los avances en inteligencia artificial (IA) pueden conducir a la superinteligencia, que define como "cualquier intelecto que supere en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". Considera que esto es una fuente importante de oportunidades y riesgos existenciales.
Vida temprana y educación
Nacido como Niklas Boström en 1973 en Helsingborg, Suecia, no le gustaba la escuela desde muy joven y pasó su último año de secundaria aprendiendo desde casa. Estaba interesado en una amplia variedad de áreas académicas, incluidas la antropología, el arte, la literatura y la ciencia.
Recibió un B.A. Licenciado por la Universidad de Gotemburgo en 1994. Luego obtuvo una maestría en filosofía y física de la Universidad de Estocolmo y una maestría en neurociencia computacional del King's College de Londres en 1996. Durante su estancia en la Universidad de Estocolmo, investigó la relación entre lenguaje y realidad mediante el estudio del filósofo analítico W. V. Quine. También hizo algunas giras en el circuito de comedia stand-up de Londres. En 2000, obtuvo un doctorado en filosofía de la London School of Economics. Su tesis se tituló Efectos y probabilidad de selección observacional. Ocupó un puesto docente en la Universidad de Yale de 2000 a 2002 y fue becario postdoctoral de la Academia Británica en la Universidad de Oxford de 2002 a 2005.
Investigación
Riesgo existencial
La investigación de Bostrom se refiere al futuro de la humanidad y a los resultados a largo plazo. Habla del riesgo existencial, que define como aquel en el que un "resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría permanente y drásticamente su potencial". A Bostrom le preocupan principalmente los riesgos antropogénicos, que son riesgos que surgen de las actividades humanas, en particular de las nuevas tecnologías como la inteligencia artificial avanzada, la nanotecnología molecular o la biología sintética.
En la colección de ensayos de 2008, Riesgos catastróficos globales, los editores Bostrom y Milan M. Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales, y vinculan el riesgo existencial con los efectos de selección del observador. y la paradoja de Fermi.
En 2005, Bostrom fundó el Instituto del Futuro de la Humanidad, que investiga el futuro lejano de la civilización humana. También es asesor del Centro de Estudio del Riesgo Existencial.
Hipótesis del mundo vulnerable
En un artículo titulado La hipótesis del mundo vulnerable, Bostrom sugiere que puede haber algunas tecnologías que destruyen la civilización humana por defecto cuando se descubren. Bostrom propone un marco para clasificar y abordar estas vulnerabilidades. También ofrece experimentos mentales contrafácticos sobre cómo podrían haber ocurrido históricamente tales vulnerabilidades, p. si las armas nucleares hubieran sido más fáciles de desarrollar o hubieran encendido la atmósfera (como había temido Robert Oppenheimer).
Superinteligencia
En su libro de 2014 Superinteligencia: caminos, peligros, estrategias, Bostrom sostiene que la superinteligencia es posible y explora diferentes tipos de superinteligencias, su cognición y los riesgos asociados. También presenta consideraciones técnicas y estratégicas sobre cómo hacerlo seguro.
Características de una superinteligencia
Bostrom explora múltiples caminos posibles hacia la superinteligencia, incluida la emulación de todo el cerebro y la mejora de la inteligencia humana, pero se centra en la inteligencia artificial general y explica que los dispositivos electrónicos tienen muchas ventajas sobre los cerebros biológicos.
Bostrom distingue entre objetivos finales y objetivos instrumentales. Un objetivo final es lo que un agente intenta lograr por su propio valor intrínseco. Los objetivos instrumentales son sólo pasos intermedios hacia los objetivos finales. Bostrom sostiene que existen objetivos instrumentales que compartirán la mayoría de los agentes suficientemente inteligentes porque generalmente son útiles para lograr cualquier objetivo (por ejemplo, preservar la propia existencia del agente o sus objetivos actuales, adquirir recursos, mejorar su cognición...), esto es el concepto de convergencia instrumental. Por otro lado, escribe que prácticamente cualquier nivel de inteligencia puede, en teoría, combinarse con prácticamente cualquier objetivo final (incluso objetivos finales absurdos, por ejemplo, hacer clips), un concepto que llama la tesis de la ortogonalidad.
Sostiene que una IA con la capacidad de mejorarse a sí misma podría iniciar una explosión de inteligencia, lo que resultaría (potencialmente rápidamente) en una superinteligencia. Una superinteligencia de este tipo podría tener capacidades muy superiores, especialmente en materia de estrategias, manipulación social, piratería informática o productividad económica. Con tales capacidades, una superinteligencia podría burlar a los humanos y apoderarse del mundo, estableciendo un singleton (que es "un orden mundial en el que existe a nivel global una única agencia de toma de decisiones") y optimizando el mundo. según sus objetivos finales.
Bostrom sostiene que dar objetivos finales simplistas a una superinteligencia podría ser catastrófico:
Supongamos que le damos a un A.I. el objetivo de hacer sonreír a los humanos. Cuando el A.I. es débil, realiza acciones útiles o divertidas que hacen que su usuario sonríe. Cuando el A.I. se vuelve superinteligente, se da cuenta de que hay una manera más eficaz de lograr este objetivo: tomar el control del mundo y meter electrodos en los músculos faciales de los humanos para causar constantes, sonríe.
Mitigación del riesgo
Bostrom explora varias vías para reducir el riesgo existencial de la IA. Destaca la importancia de la colaboración internacional, en particular para reducir la dinámica de la carrera hacia el fondo y la carrera armamentista de la IA. Sugiere técnicas potenciales para ayudar a controlar la IA, incluida la contención, el atrofiamiento de las capacidades o el conocimiento de la IA, la reducción del contexto operativo (por ejemplo, a preguntas y respuestas) o la utilización de "cables trampa" (mecanismos de diagnóstico que pueden provocar una parada). Pero Bostrom sostiene que "no debemos confiar en nuestra capacidad de mantener a un genio superinteligente encerrado en su botella para siempre". Tarde o temprano, saldrá". Por lo tanto, sugiere que para que sea segura para la humanidad, la superinteligencia debe estar alineada con la moral o los valores humanos de modo que esté "fundamentalmente de nuestro lado". Los posibles marcos de normatividad de la IA incluyen la voluntad extrapolada coherente de Yudkowsky (los valores humanos mejoran mediante la extrapolación), la rectitud moral (hacer lo que es moralmente correcto) y la permisibilidad moral (seguir la voluntad extrapolada coherente de la humanidad, excepto cuando no es necesaria). es moralmente inadmisible).
Bostrom advierte que también puede producirse una catástrofe existencial si los humanos hacen un mal uso de la IA con fines destructivos, o si los humanos no tienen en cuenta el posible estatus moral de las mentes digitales. A pesar de estos riesgos, dice que la superinteligencia de las máquinas parece estar involucrada en algún momento en "todos los caminos plausibles hacia un futuro realmente grandioso".
Recepción pública
Superinteligencia: caminos, peligros, estrategias se convirtió en un best seller del New York Times y recibió comentarios positivos de personalidades como Stephen Hawking, Bill Gates, Elon Musk, Peter Singer o Derek Parfit. Fue elogiado por ofrecer argumentos claros y convincentes sobre un tema descuidado pero importante. A veces fue criticado por difundir pesimismo sobre el potencial de la IA o por centrarse en riesgos especulativos y de largo plazo. Algunos escépticos como Daniel Denett u Oren Etzioni sostuvieron que la superinteligencia está demasiado lejos para que el riesgo sea significativo. Yann LeCun considera que no existe ningún riesgo existencial y afirma que la IA superinteligente no tendrá ningún deseo de autoconservación y que se puede confiar en que los expertos la harán segura.
Raffi Khatchadourian escribió que el libro de Bostrom sobre superinteligencia “no pretende ser un tratado de profunda originalidad; La contribución de Bostrom es imponer los rigores de la filosofía analítica a un corpus desordenado de ideas que surgieron en los márgenes del pensamiento académico."
Sentimiento digital
Bostrom apoya el principio de independencia del sustrato, la idea de que la conciencia puede surgir en varios tipos de sustratos físicos, no sólo en "redes neuronales biológicas basadas en carbono" como el cerebro humano. Considera que "la sensibilidad es una cuestión de grado" y que, en teoría, las mentes digitales pueden diseñarse para tener una tasa e intensidad de experiencia subjetiva mucho más altas que las de los humanos, utilizando menos recursos. Estas máquinas altamente sensibles, a las que él llama “superbeneficiarios”, serían extremadamente eficientes para lograr la felicidad. Recomienda encontrar "caminos que permitan que las mentes digitales y las mentes biológicas coexistan, de una manera mutuamente beneficiosa donde todas estas formas diferentes puedan florecer y prosperar".
Razonamiento antrópico
Bostrom ha publicado numerosos artículos sobre razonamiento antrópico, así como el libro Anthropic Bias: Observation Selection Effects in Science and Philosophy. En el libro, critica formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter, John Leslie, John Barrow y Frank Tipler.
Bostrom cree que el mal manejo de la información indexada es un defecto común en muchas áreas de investigación (incluidas la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Sostiene que se necesita una teoría antrópica para abordarlos. Introduce el supuesto de automuestreo (SSA) y el supuesto de autoindicación (SIA), muestra cómo conducen a conclusiones diferentes en varios casos e identifica cómo cada uno se ve afectado por paradojas o implicaciones contraintuitivas en ciertos experimentos mentales. Sugiere que un camino a seguir podría implicar ampliar el SSA al Supuesto de Automuestreo Fuerte (SSSA), que reemplaza el criterio de "observadores" en la definición de la SSA con "momentos del observador".
En trabajos posteriores, propuso el fenómeno de la sombra antrópica, un efecto de selección de observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. Bostrom afirma que es probable que los acontecimientos que se encuentran en la sombra antrópica se subestimen a menos que se hagan correcciones estadísticas.
Argumento de simulación
Did you mean:Bostrom 's simulation argument posits that at least one of the following statements is very likely to be true:
- La fracción de civilizaciones humanas que llegan a una etapa posthumana está muy cerca de cero;
- La fracción de civilizaciones posthumanas que están interesadas en ejecutar ancestro-simulations es muy cercana a cero;
- La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación está muy cerca de una.
Ética de la mejora humana
Bostrom tiene una disposición favorable hacia la "mejora humana", o "la superación personal y la perfectibilidad humana a través de la aplicación ética de la ciencia", así como un crítico de las opiniones bioconservadoras.
En 1998, Bostrom cofundó (con David Pearce) la Asociación Transhumanista Mundial (que desde entonces cambió su nombre a Humanity+). En 2004, cofundó (con James Hughes) el Instituto de Ética y Tecnologías Emergentes, aunque ya no participa en ninguna de estas organizaciones.
En 2005, Bostrom publicó el cuento "La fábula del dragón tirano" en la Revista de Ética Médica. En 2012 se publicó una versión más breve en Philosophy Now. La fábula personifica la muerte como un dragón que exige cada día el tributo de miles de personas. La historia explora cómo el sesgo del status quo y la impotencia aprendida pueden impedir que las personas tomen medidas para derrotar el envejecimiento, incluso cuando tienen los medios para hacerlo a su disposición. El YouTuber CGP Gray creó una versión animada de la historia.
Con el filósofo Toby Ord (actualmente investigador en el Future of Humanity Institute), propuso la prueba de reversión en 2006. Dados los humanos & # 39; Sesgo irracional del status quo, ¿cómo se puede distinguir entre críticas válidas a cambios propuestos en un rasgo humano y críticas meramente motivadas por la resistencia al cambio? La prueba de reversión intenta hacer esto preguntando si sería bueno que el rasgo se alterara en la dirección opuesta.
El trabajo de Bostrom también considera posibles efectos disgénicos en las poblaciones humanas, pero cree que la ingeniería genética puede proporcionar una solución y que "en cualquier caso, la escala de tiempo de la evolución genética natural humana parece demasiado grande para tales acontecimientos tengan algún efecto significativo antes de que otros acontecimientos hagan que la cuestión sea discutible".
Estrategia tecnológica
Bostrom ha sugerido que la política tecnológica destinada a reducir el riesgo existencial debería intentar influir en el orden en que se alcanzan las diversas capacidades tecnológicas, proponiendo el principio de desarrollo tecnológico diferencial. Este principio establece que debemos retrasar el desarrollo de tecnologías peligrosas, particularmente aquellas que elevan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, particularmente aquellas que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías.
En 2011, Bostrom fundó el Programa Oxford Martin sobre los impactos de la tecnología del futuro.
Did you mean:Bostrom 's theory of the Unilateralist 's Curse has been cited as a reason for the scientific community to avoid controversial dangerous research such as reanimating pathogens.
Premios
Bostrom fue incluido en la lista de Foreign Policy' de 2009 de los principales pensadores globales "por no aceptar límites al potencial humano." La revista Prospect incluyó a Bostrom en su lista de 2014 de los Mejores pensadores del mundo. Bostrom ha sido llamado el "padre" del Longtermismo.
Compromiso público
Bostrom ha brindado asesoramiento sobre políticas y ha sido consultor de muchos gobiernos y organizaciones. Prestó testimonio ante el Comité Selecto de Habilidades Digitales de la Cámara de los Lores. Es miembro del consejo asesor del Machine Intelligence Research Institute, Future of Life Institute y asesor externo del Centro de Cambridge para el Estudio del Riesgo Existencial.
Controversia por correo electrónico de 1996
En enero de 2023, Bostrom se disculpó por un correo electrónico de 1996 en el que decía que pensaba que "los negros son más estúpidos que los blancos" y donde también usaba la palabra "niggers"; en una descripción de cómo pensaba que otros podrían percibir esta afirmación. La disculpa, publicada en su sitio web, decía que "la invocación de un insulto racial era repulsiva" y que "repudia por completo este desagradable correo electrónico". En su disculpa, escribió: "Creo que es profundamente injusto que el acceso desigual a la educación, los nutrientes y la atención sanitaria básica conduzca a una desigualdad en los resultados sociales, incluidas a veces disparidades en las habilidades y la capacidad cognitiva".
En enero de 2023, la Universidad de Oxford dijo a The Daily Beast: “La Universidad y la Facultad de Filosofía están investigando actualmente el asunto, pero condenan en los términos más enérgicos posibles las opiniones que este académico en particular expresó en sus comunicaciones. "
Obras seleccionadas
Libros
- 2002 – Bias antropópicas: Efectos de selección de observación en ciencia y filosofía, ISBN 0-415-93858-9
- 2008 – Riesgos catastróficos globales, editado por Bostrom y Milan M. Ćirković, ISBN 978-0-19-857050-9
- 2009 – Fortalecimiento humano, editado por Bostrom y Julian Savulescu, ISBN 0-19-929972-2
- 2014 – Superinteligencia: Caminos, Peligros, Estrategias, ISBN 978-0-19-967811-2
Artículos de revistas
- Bostrom, Nick (1998). "¿Cuánto tiempo antes de la superinteligencia?". Journal of Future Studies. 2.
- - (enero de 2000). "¿Probabilidades relativas al observador en el razonamiento antropo?". Erkenntnis. 52 (1): 93–108. doi:10.1023/A:1005551304409. JSTOR 20012969. S2CID 14047484848.
- - (octubre de 2001). "El problema Meta-Newcomb". Análisis. 61 (4): 309–310. doi:10.1111/1467-8284.00310. JSTOR 3329010.
- - (marzo de 2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 9 1).
- - (abril de 2003). "¿Estás viviendo en una simulación de ordenador?" (PDF). Filosófica trimestral. 53 (211): 243–255. doi:10.1111/1467-9213.00309. JSTOR 3542867.
- - (2003). "Los misterios de la creencia autoubicante y la razón antropópica" (PDF). Harvard Review of Philosophy. 11 (Spring): 59–74. doi:10.5840/harvardreview20031114.
- - (noviembre de 2003). "Desechos astronómicos: El costo de oportunidad del desarrollo tecnológico retrasado". Utilitas. 15 (3): 308–314. CiteSeerX10.1.1.429.2849. doi:10.1017/S0953820800004076. S2CID 15860897.
- — (junio de 2005). "En Defensa de la Dignidad Posthumana". Bioética. 19 (3): 202–214. doi:10.1111/j.1467-8519.2005.00437.x. PMID 16167401.
- con Tegmark, Max (diciembre de 2005). "¿Cómo es a diferencia de una catastrofe del Día del Juicio?". Naturaleza. 438 754. arXiv:astro-ph/0512204. Bibcode:2005Natur.438..754T. doi:10.1038/438754a. PMID 16341005. S2CID 4390013.
- - (2006). "¿Qué es un Singleton?". Investigaciones lingüísticas y filosóficas. 5 (2): 48-54.
- con Ord, Toby (julio de 2006). "El examen de inversión: eliminación de la condición Quo Bias en ética aplicada" (PDF). Ética. 116 (4): 656-680. doi:10.1086/505233. PMID 17039628. S2CID 12861892.
- con Sandberg, Anders (diciembre 2006). "Converging Cognitive Enhancements" (PDF). Annals de la Academia de Ciencias de Nueva York. 1093 (1): 201–207. Código:2006NYASA1093..201S. CiteSeerX10.1.1.328.3853. doi:10.1196/annals.1382.015. PMID 17312260. S2CID 10135931.
- — (enero de 2008). "Los medicamentos se pueden usar para tratar más que la enfermedad" (PDF). Naturaleza. 452 (7178): 520. Código:2008Natur.451..520B. doi:10.1038/451520b. PMID 18235476. S2CID 4426990.
- - (2008). "El argumento del fin de semana". Piensa. 6 (17–18): 23–28. doi:10.1017/S1477175600002943. S2CID 171035249.
- - (2008). "¿Dónde están? Por qué espero que la búsqueda de la vida extraterrestre no encuentre nada" (PDF). Technology Review 72 a 77.
- con Sandberg, Anders (septiembre de 2009). "Cognitive Enhancement: Methods, Ethics, Regulatory Challenges" (PDF). Ciencia e Ingeniería Ética. 15 (3): 311-341. CiteSeerX10.1.1.143.4686. doi:10.1007/s11948-009-9142-5. PMID 19543814. S2CID 6846531.
- - (2009). "Pascal's Mugging" (PDF). Análisis. 69 (3): 443-445. doi:10.1093/analys/anp062. JSTOR 40607655.
- con Ćirković, Milán; Sandberg, Anders (2010). "Sombra Antrópica: Efectos de Selección de Observación y Riesgos de Extinción Humana" (PDF). Análisis de riesgos. 30 (10): 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. PMID 20626690. S2CID 6485564.
- - (2011). "Peligros de información: una tipología de daños potenciales del conocimiento" (PDF). Revisión de la filosofía contemporánea. 10: 44–79. ProQuest 920893069.
- Bostrom, Nick (2011). "Los EthICS OF ARTIFICIAL INTELLIGENCE" (PDF). Cambridge Handbook of Artificial Intelligence. Archivado desde el original (PDF) el 4 de marzo de 2016. Retrieved 13 de febrero 2017.
- Bostrom, Nick (2011). "Etica Infinita" (PDF). Análisis y metafísica. 10: 9-59.
- — (mayo de 2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (PDF). Mentes y Máquinas. 22 (2): 71–84. doi:10.1007/s11023-012-9281-3. S2CID 7445963.
- con Armstrong, Stuart; Sandberg, Anders (noviembre de 2012). "En el interior de la caja: controlando y utilizando Oracle AI" (PDF). Mentes y Máquinas. 22 (4): 299-324. CiteSeerX10.1.1.396.799. doi:10.1007/s11023-012-9282-2. S2CID 9464769.
- — (febrero de 2013). "Existential Risk Reduction as Global Priority". Global Policy. 4 (3): 15–31. doi:10.1111/1758-5899.12002.
- con Shulman, Carl (Febrero 2014). "Embryo Selection for Cognitive Enhancement: Curiosidad o Game-changer?" (PDF). Global Policy. 5 (1): 85–92. CiteSeerX10.1.1.428.8837. doi:10.1111/1758-5899.12123.
- con Muehlhauser, Luke (2014). "Por qué necesitamos inteligencia amigable" (PDF). Piensa. 13 (36): 41–47. doi:10.1017/S1477175613000316. S2CID 143657841.
- Bostrom, Nick (septiembre 2019). "La Hipótesis Mundial Vulnerable". Global Policy. 10 (4): 455-476. doi:10.1111/1758-5899.12718.
Contenido relacionado
Wilhelm Gottlieb Tennemann
Henry Edward Manning
Anthony Ashley-Cooper, séptimo conde de Shaftesbury