Riesgo de una catástrofe global
Un riesgo catastrófico global o un escenario del fin del mundo es un evento futuro hipotético que podría dañar el bienestar humano a escala global, incluso poniendo en peligro o destruyendo la civilización moderna. Un evento que podría causar la extinción humana o reducir de manera permanente y drástica el potencial de la humanidad se conoce como " riesgo existencial ".
Durante las últimas dos décadas, se han establecido una serie de organizaciones académicas y sin fines de lucro para investigar riesgos catastróficos y existenciales globales, formular posibles medidas de mitigación y defender o implementar estas medidas.
Definición y clasificación
Definición de riesgos catastróficos globales
El término riesgo catastrófico global "carece de una definición precisa" y generalmente se refiere (vagamente) a un riesgo que podría infligir "daños graves al bienestar humano a escala global".
La humanidad ha sufrido grandes catástrofes antes. Algunos de estos han causado daños graves, pero solo tuvieron un alcance local; por ejemplo, la Peste Negra puede haber provocado la muerte de un tercio de la población de Europa, el 10% de la población mundial en ese momento. Algunos eran globales, pero no tan severos, por ejemplo, la pandemia de influenza de 1918 mató aproximadamente al 3-6% de la población mundial. La mayoría de los riesgos catastróficos globales no serían tan intensos como para matar a la mayoría de la vida en la tierra, pero incluso si lo hiciera, el ecosistema y la humanidad eventualmente se recuperarían (en contraste con los riesgos existenciales).
De manera similar, en Catastrophe: Risk and Response, Richard Posner destaca y agrupa los eventos que provocan "el derrocamiento total o la ruina" a escala global, en lugar de "local o regional". Posner destaca tales eventos como dignos de atención especial en términos de costo-beneficio porque podrían poner en peligro directa o indirectamente la supervivencia de la raza humana en su conjunto.
Definición de riesgos existenciales
Los riesgos existenciales se definen como "riesgos que amenazan con la destrucción del potencial a largo plazo de la humanidad". La instanciación de un riesgo existencial (una catástrofe existencial) causaría la extinción humana total o bloquearía irreversiblemente en un estado de cosas drásticamente inferior. Los riesgos existenciales son una subclase de riesgos catastróficos globales, donde el daño no solo es global sino también terminal y permanente, lo que impide la recuperación y, por lo tanto, afecta tanto a las generaciones actuales como a las futuras.
Riesgos de no extinción
Si bien la extinción es la forma más obvia en la que se podría destruir el potencial a largo plazo de la humanidad, existen otras, incluido el colapso irrecuperable y la distopía irrecuperable. Un desastre lo suficientemente grave como para causar el colapso permanente e irreversible de la civilización humana constituiría una catástrofe existencial, incluso si no llegara a la extinción. De manera similar, si la humanidad cayera bajo un régimen totalitario y no hubiera posibilidad de recuperación, tal distopía también sería una catástrofe existencial. Bryan Caplan escribe que "quizás una eternidad de totalitarismo sería peor que la extinción". (La novela de George Orwell Nineteen Eighty-Four sugiere un ejemplo. ) Un escenario distópico comparte las características clave de la extinción y el colapso irreparable de la civilización: antes de la catástrofe, la humanidad enfrentaba una amplia gama de futuros brillantes para elegir; después de la catástrofe, la humanidad queda encerrada para siempre en un estado terrible.
Fuentes potenciales de riesgo
Los riesgos catastróficos globales potenciales se clasifican convencionalmente como peligros antropogénicos o no antropogénicos. Ejemplos de riesgos no antropogénicos son el impacto de un asteroide, una erupción supervolcánica, un estallido letal de rayos gamma, una tormenta geomagnética que destruya equipos electrónicos, un cambio climático natural a largo plazo, vida extraterrestre hostil o la predecible transformación del Sol en una gigante roja. estrella que envuelve a la Tierra.
Los riesgos antropogénicos son aquellos causados por humanos e incluyen aquellos relacionados con la tecnología, la gobernanza y el cambio climático. Los riesgos tecnológicos incluyen la creación de inteligencia artificial desalineada con los objetivos humanos, la biotecnología y la nanotecnología. Una gobernanza mundial insuficiente o maligna genera riesgos en el ámbito social y político, como una guerra mundial y un holocausto nuclear, el bioterrorismo mediante el uso de organismos genéticamente modificados, el ciberterrorismo que destruye infraestructura crítica como la red eléctrica o la incapacidad de gestionar una pandemia natural o artificial. Los riesgos catastróficos globales en el dominio de la gobernanza del sistema terrestre incluyen el calentamiento global, la degradación ambiental, la extinción de especies, la hambruna como resultado de la distribución no equitativa de los recursos, la sobrepoblación humana, las malas cosechas y la agricultura no sostenible.
Desafíos metodológicos
La investigación sobre la naturaleza y la mitigación de los riesgos catastróficos globales y los riesgos existenciales está sujeta a un conjunto único de desafíos y, como resultado, no se sujeta fácilmente a los estándares habituales de rigor científico. Por ejemplo, no es factible ni ético estudiar estos riesgos experimentalmente. Carl Sagan expresó esto con respecto a la guerra nuclear: "Comprender las consecuencias a largo plazo de la guerra nuclear no es un problema susceptible de verificación experimental". Además, muchos riesgos catastróficos cambian rápidamente a medida que avanza la tecnología y cambian las condiciones de fondo, como las condiciones geopolíticas. Otro desafío es la dificultad general de predecir con precisión el futuro en escalas de tiempo prolongadas, especialmente para los riesgos antropogénicos que dependen de los complejos sistemas políticos, económicos y sociales humanos.Además de los riesgos conocidos y tangibles, pueden ocurrir eventos imprevistos de extinción del cisne negro, lo que presenta un problema metodológico adicional.
Falta de precedentes históricos
La humanidad nunca ha sufrido una catástrofe existencial y, si ocurriera, necesariamente no tendría precedentes. Por lo tanto, los riesgos existenciales plantean desafíos únicos para la predicción, incluso más que otros eventos a largo plazo, debido a los efectos de selección de la observación. A diferencia de la mayoría de los eventos, el fracaso de un evento de extinción completa en el pasado no es evidencia en contra de su probabilidad en el futuro, porque cada mundo que ha experimentado tal evento de extinción no tiene observadores, por lo que, independientemente de su frecuencia, ninguna civilización observa. riesgos existenciales en su historia. Estos problemas antrópicos pueden evitarse en parte al observar evidencia que no tiene tales efectos de selección, como los cráteres de impacto de asteroides en la Luna, o al evaluar directamente el impacto probable de la nueva tecnología.
Para comprender la dinámica de un colapso civilizacional global irrecuperable y sin precedentes (un tipo de riesgo existencial), puede ser instructivo estudiar los diversos colapsos civilizacionales locales que han ocurrido a lo largo de la historia humana. Por ejemplo, civilizaciones como el Imperio Romano terminaron con una pérdida de gobierno centralizado y una gran pérdida de infraestructura y tecnología avanzada en toda la civilización. Sin embargo, estos ejemplos demuestran que las sociedades parecen ser bastante resistentes a las catástrofes; por ejemplo, la Europa medieval sobrevivió a la Peste Negra sin sufrir nada parecido al colapso de una civilización a pesar de perder entre el 25 y el 50 por ciento de su población.
Incentivos y coordinación
Hay razones económicas que pueden explicar por qué se dedica tan poco esfuerzo a la reducción del riesgo existencial. Es un bien público global, por lo que deberíamos esperar que los mercados no lo abastezcan. Incluso si una nación grande invierte en medidas de mitigación de riesgos, esa nación disfrutará solo de una pequeña fracción del beneficio de hacerlo. Además, la reducción del riesgo existencial es un bien público global intergeneracional, ya que la mayoría de los beneficios de la reducción del riesgo existencial serían disfrutados por las generaciones futuras, y aunque estas futuras personas en teoría quizás estarían dispuestas a pagar sumas sustanciales por la reducción del riesgo existencial, ningún mecanismo porque tal transacción existe.
Sesgos cognitivos
Numerosos sesgos cognitivos pueden influir en el juicio de las personas sobre la importancia de los riesgos existenciales, incluida la insensibilidad al alcance, el descuento hiperbólico, la heurística de disponibilidad, la falacia de la conjunción, la heurística del afecto y el efecto de exceso de confianza.
La insensibilidad al alcance influye en lo mala que la gente considera que es la extinción de la raza humana. Por ejemplo, cuando las personas están motivadas para donar dinero a causas altruistas, la cantidad que están dispuestas a dar no aumenta linealmente con la magnitud del problema: las personas están dispuestas a evitar la muerte de 200 000 o 2000 aves. De manera similar, las personas a menudo están más preocupadas por las amenazas a los individuos que a los grupos más grandes.
Eliezer Yudkowsky teoriza que el descuido del alcance juega un papel en la percepción pública de los riesgos existenciales:
Cifras sustancialmente mayores, como 500 millones de muertes, y especialmente escenarios cualitativamente diferentes, como la extinción de toda la especie humana, parecen desencadenar un modo diferente de pensar... Las personas que nunca soñarían con lastimar a un niño escuchan hablar de riesgo existencial, y decir: "Bueno, tal vez la especie humana realmente no merece sobrevivir".
Todas las predicciones pasadas de extinción humana han resultado ser falsas. Para algunos, esto hace que las advertencias futuras parezcan menos creíbles. Nick Bostrom argumenta que la ausencia de extinción humana en el pasado es una evidencia débil de que no habrá extinción humana en el futuro, debido al sesgo de supervivencia y otros efectos antrópicos.
El sociobiólogo EO Wilson argumentó que: "La razón de esta niebla miope, sostienen los biólogos evolutivos, es que en realidad fue ventajosa durante todos menos los últimos milenios de los dos millones de años de existencia del género Homo... mucha atención al futuro cercano y la reproducción temprana, y poco más. Desastres de una magnitud que ocurre solo una vez cada pocos siglos fueron olvidados o transmutados en mito".
Mitigación propuesta
Defensa multicapa
La defensa en profundidad es un marco útil para categorizar las medidas de mitigación de riesgos en tres niveles de defensa:
- Prevención: Reducir la probabilidad de que ocurra una catástrofe en primer lugar. Ejemplo: Medidas para prevenir brotes de nuevas enfermedades altamente infecciosas.
- Respuesta: Prevenir la escala de una catástrofe a nivel global. Ejemplo: Medidas para evitar la escalada de un intercambio nuclear a pequeña escala en una guerra nuclear total.
- Resiliencia: Incrementar la resiliencia de la humanidad (frente a la extinción) frente a catástrofes globales. Ejemplo: Medidas para aumentar la seguridad alimentaria durante un invierno nuclear.
La extinción humana es más probable cuando las tres defensas son débiles, es decir, "por riesgos que es poco probable que podamos prevenir, a los que es poco probable que respondamos con éxito y que es poco probable que seamos resilientes".
La naturaleza sin precedentes de los riesgos existenciales plantea un desafío especial en el diseño de medidas de mitigación de riesgos, ya que la humanidad no podrá aprender de un historial de eventos anteriores.
Fondos
Algunos investigadores argumentan que tanto la investigación como otras iniciativas relacionadas con el riesgo existencial no cuentan con fondos suficientes. Nick Bostrom afirma que se han realizado más investigaciones sobre Star Trek, el snowboard o los escarabajos peloteros que sobre los riesgos existenciales. Las comparaciones de Bostrom han sido criticadas como "prepotentes". A partir de 2020, la organización de la Convención de Armas Biológicas tenía un presupuesto anual de US $ 1,4 millones.
Planificación de supervivencia
Algunos académicos proponen el establecimiento en la Tierra de uno o más asentamientos autosuficientes, remotos y permanentemente ocupados creados específicamente con el propósito de sobrevivir a un desastre global. El economista Robin Hanson argumenta que un refugio que aloje permanentemente a tan solo 100 personas mejoraría significativamente las posibilidades de supervivencia humana durante una variedad de catástrofes globales.
El almacenamiento de alimentos se ha propuesto a nivel mundial, pero el costo monetario sería alto. Además, probablemente contribuiría a los millones de muertes anuales actuales debido a la desnutrición. En 2022, un equipo dirigido por David Denkenberger modeló la rentabilidad de los alimentos resistentes a la seguridad de la inteligencia artificial general (AGI) y encontró "∼98-99% de confianza" para un mayor impacto marginal del trabajo en alimentos resistentes. Algunos sobrevivientes almacenan retiros de supervivencia con suministros de alimentos para varios años.
La Bóveda Global de Semillas de Svalbard está enterrada a 400 pies (120 m) dentro de una montaña en una isla en el Ártico. Está diseñado para contener 2.500 millones de semillas de más de 100 países como medida de precaución para preservar los cultivos del mundo. La roca circundante tiene -6 ° C (21 ° F) (a partir de 2015), pero la bóveda se mantiene a -18 ° C (0 ° F) mediante refrigeradores que funcionan con carbón de origen local.
Más especulativamente, si la sociedad continúa funcionando y si la biosfera sigue siendo habitable, las necesidades calóricas de la población humana actual podrían, en teoría, satisfacerse durante una ausencia prolongada de luz solar, con una planificación previa suficiente. Las soluciones conjeturadas incluyen el cultivo de hongos en la biomasa vegetal muerta que quedó tras la catástrofe, la conversión de celulosa en azúcar o la alimentación con gas natural de las bacterias que digieren metano.
Riesgos catastróficos globales y gobernanza global
Una gobernanza global insuficiente crea riesgos en el ámbito social y político, pero los mecanismos de gobernanza se desarrollan más lentamente que el cambio tecnológico y social. Hay preocupaciones de los gobiernos, el sector privado, así como el público en general sobre la falta de mecanismos de gobernanza para tratar de manera eficiente los riesgos, negociar y adjudicar entre intereses diversos y en conflicto. Esto se subraya aún más por una comprensión de la interconexión de los riesgos sistémicos globales. En ausencia o anticipación de una gobernanza global, los gobiernos nacionales pueden actuar individualmente para comprender, mitigar y prepararse mejor para las catástrofes globales.
Planes de emergencia climática
En 2018, el Club de Roma hizo un llamado a una mayor acción contra el cambio climático y publicó su Plan de Emergencia Climática, que propone diez puntos de acción para limitar el aumento de la temperatura promedio global a 1,5 grados centígrados. Además, en 2019, el Club publicó el Plan de Emergencia Planetaria más completo.
Hay evidencia que sugiere que comprometerse colectivamente con las experiencias emocionales que emergen al contemplar la vulnerabilidad de la especie humana dentro del contexto del cambio climático permite que estas experiencias sean adaptativas. Cuando la participación colectiva y el procesamiento de experiencias emocionales brindan apoyo, esto puede conducir al crecimiento de la resiliencia, la flexibilidad psicológica, la tolerancia de las experiencias emocionales y la participación comunitaria.
Colonización del espacio
La colonización espacial es una alternativa propuesta para mejorar las probabilidades de sobrevivir a un escenario de extinción. Las soluciones de este alcance pueden requerir ingeniería a megaescala.
El astrofísico Stephen Hawking abogó por colonizar otros planetas dentro del sistema solar una vez que la tecnología progrese lo suficiente, para mejorar las posibilidades de supervivencia humana de eventos planetarios como la guerra termonuclear global.
El multimillonario Elon Musk escribe que la humanidad debe convertirse en una especie multiplanetaria para evitar la extinción. Musk está utilizando su empresa SpaceX para desarrollar tecnología que espera se utilice en la colonización de Marte.
Moviendo la tierra
En unos pocos miles de millones de años, el Sol se expandirá hasta convertirse en una gigante roja, tragándose a la Tierra. Esto se puede evitar alejando la Tierra del Sol, manteniendo la temperatura más o menos constante. Eso se puede lograr ajustando las órbitas de los cometas y asteroides para que pasen cerca de la Tierra de tal manera que agreguen energía a la órbita de la Tierra. Dado que la expansión del Sol es lenta, sería suficiente aproximadamente un encuentro de este tipo cada 6.000 años.
Escépticos y opositores
El psicólogo Steven Pinker ha llamado al riesgo existencial una "categoría inútil" que puede distraer la atención de amenazas reales como el cambio climático y la guerra nuclear.
Organizaciones
El Bulletin of the Atomic Scientists (establecido en 1945) es una de las organizaciones de riesgo global más antiguas, fundada después de que el público se alarmara por el potencial de la guerra atómica después de la Segunda Guerra Mundial. Estudia los riesgos asociados con la guerra y la energía nucleares y es famoso por mantener el Reloj del Juicio Final establecido en 1947. El Instituto Foresight (fundado en 1986) examina los riesgos de la nanotecnología y sus beneficios. Fue una de las primeras organizaciones en estudiar las consecuencias no deseadas de una tecnología que, de otro modo, sería inofensiva y se volvería loca a escala mundial. Fue fundado por K. Eric Drexler, quien postuló la "goo gris".
A partir de 2000, un número creciente de científicos, filósofos y multimillonarios tecnológicos crearon organizaciones dedicadas a estudiar los riesgos globales tanto dentro como fuera de la academia.
Las organizaciones no gubernamentales (ONG) independientes incluyen el Instituto de Investigación de Inteligencia de Máquinas (est. 2000), cuyo objetivo es reducir el riesgo de una catástrofe causada por la inteligencia artificial, con donantes que incluyen a Peter Thiel y Jed McCaleb. La Iniciativa de amenazas nucleares (est. 2001) busca reducir las amenazas globales de amenazas nucleares, biológicas y químicas, y la contención de daños después de un evento. Mantiene un índice de seguridad de los materiales nucleares. La Fundación Lifeboat (est. 2009) financia investigaciones para prevenir una catástrofe tecnológica. La mayor parte del dinero de la investigación financia proyectos en las universidades.El Instituto Global de Riesgos Catastróficos (fundado en 2011) es un grupo de expertos no partidista y sin fines de lucro con sede en los EE. UU. fundado por Seth Baum y Tony Barrett. GCRI realiza trabajos de investigación y políticas sobre diversos riesgos, incluida la inteligencia artificial, la guerra nuclear, el cambio climático y los impactos de asteroides. La Fundación Global Challenges (est. 2012), con sede en Estocolmo y fundada por Laszlo Szombatfalvy, publica un informe anual sobre el estado de los riesgos globales. El Future of Life Institute (est. 2014) trabaja para reducir los riesgos extremos a gran escala de las tecnologías transformadoras, así como para dirigir el desarrollo y el uso de estas tecnologías en beneficio de todas las formas de vida, a través de subvenciones, promoción de políticas en los Estados Unidos, Europa Unión Europea y Naciones Unidas, y divulgación educativa.Elon Musk, Vitalik Buterin y Jaan Tallinn son algunos de sus mayores donantes. El Center on Long-Term Risk (est. 2016), anteriormente conocido como Foundational Research Institute, es una organización británica enfocada en reducir los riesgos de sufrimiento astronómico (s-risks) de las tecnologías emergentes.
Las organizaciones universitarias incluyen el Instituto del Futuro de la Humanidad (est. 2005), que investiga las cuestiones del futuro a largo plazo de la humanidad, en particular el riesgo existencial. Fue fundada por Nick Bostrom y tiene su sede en la Universidad de Oxford. El Centro para el Estudio del Riesgo Existencial (fundado en 2012) es una organización con sede en la Universidad de Cambridge que estudia cuatro riesgos tecnológicos principales: inteligencia artificial, biotecnología, calentamiento global y guerra.Todos son riesgos provocados por el hombre, como explicó Huw Price a la agencia de noticias AFP: "Parece una predicción razonable que en algún momento de este o del próximo siglo la inteligencia escapará de las limitaciones de la biología". Agregó que cuando esto suceda “ya no seremos las cosas más inteligentes”, y correremos el riesgo de quedar a merced de “máquinas que no son maliciosas, pero máquinas cuyos intereses no nos incluyen a nosotros”. Stephen Hawking fue un asesor en funciones. La Alianza del Milenio para la Humanidad y la Biosfera es una organización con sede en la Universidad de Stanford que se enfoca en muchos temas relacionados con catástrofes globales al reunir a miembros de la academia en humanidades. Fue fundada por Paul Ehrlich, entre otros.La Universidad de Stanford también tiene el Centro para la Seguridad y Cooperación Internacional que se enfoca en la cooperación política para reducir el riesgo catastrófico global. El Centro de Seguridad y Tecnología Emergente se estableció en enero de 2019 en la Escuela de Servicio Exterior Walsh de Georgetown y se centrará en la investigación de políticas de tecnologías emergentes con un énfasis inicial en la inteligencia artificial. Recibieron una subvención de 55 millones de dólares de Good Ventures según lo sugerido por Open Philanthropy.
Otros grupos de evaluación de riesgos tienen su sede o forman parte de organizaciones gubernamentales. La Organización Mundial de la Salud (OMS) incluye una división llamada Alerta y Respuesta Global (GAR) que monitorea y responde a la crisis epidémica global. GAR ayuda a los estados miembros con la capacitación y coordinación de la respuesta a epidemias. La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene su Programa de Amenazas Pandémicas Emergentes que tiene como objetivo prevenir y contener las pandemias generadas naturalmente en su fuente. El Laboratorio Nacional Lawrence Livermore tiene una división llamada Dirección Principal de Seguridad Global que investiga en nombre del gobierno temas como la bioseguridad y la lucha contra el terrorismo.
Contenido relacionado
Biocombustible
Cambio climático
Recursos fitogenéticos