Extinción humana

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La extinción humana es el fin hipotético de la especie humana debido a causas naturales, como la disminución de la población debido a la fertilidad de reemplazo, el impacto de un asteroide o el vulcanismo a gran escala, o causas antropogénicas (humanas), también conocidas como omnicidio. Para este último, algunos de los muchos posibles contribuyentes incluyen el cambio climático, la aniquilación nuclear global, la guerra biológica y el colapso ecológico. Otros escenarios se centran en tecnologías emergentes, como inteligencia artificial avanzada, biotecnología o nanobots autorreplicantes. El consenso científico es que existe un riesgo relativamente bajo de extinción humana a corto plazo debido a causas naturales. Sin embargo, la probabilidad de extinción humana a través de sus propias actividades es un área actual de investigación y debate.

Historia del pensamiento

Historia temprana del pensamiento sobre la extinción humana

Antes de los siglos XVIII y XIX, la posibilidad de que los humanos u otros organismos pudieran extinguirse se veía con escepticismo. Contradecía el principio de plenitud, una doctrina de que todas las cosas posibles existen. El principio se remonta a Aristóteles y fue un principio importante de la teología cristiana. Los antiguos filósofos occidentales como Platón, Aristóteles y Lucrecio escribieron sobre el fin de la humanidad solo como parte de un ciclo de renovación. Filósofos posteriores como Al-Ghazali, Guillermo de Ockham y Gerolamo Cardano ampliaron el estudio de la lógica y la probabilidad y comenzaron a discutir posibles formas abstractas.mundos, incluido un mundo sin humanos. La noción de que las especies pueden extinguirse ganó aceptación científica durante el Siglo de las Luces en los siglos XVII y XVIII, y para 1800, Georges Cuvier había identificado 23 especies prehistóricas extintas. La doctrina fue socavada gradualmente por la evidencia de las ciencias naturales, en particular el descubrimiento de evidencia fósil de especies que parecían no existir más, y el desarrollo de teorías de la evolución. En El origen de las especies, Darwin discutió la extinción de las especies como un proceso natural y un componente central de la selección natural.En particular, Darwin se mostró escéptico ante la posibilidad de extinciones repentinas, viéndolo como un proceso gradual. Sostuvo que las desapariciones abruptas de especies del registro fósil no eran evidencia de extinciones catastróficas, sino más bien una función de lagunas no reconocidas en el registro.

A medida que la posibilidad de extinción se estableció más ampliamente en las ciencias, también lo hizo la perspectiva de la extinción humana. En el siglo XIX, la extinción humana se convirtió en un tema popular en la ciencia (p. ej., Un ensayo sobre el principio de la población de Thomas Robert Malthus) y la ficción (p. ej., El último hombre de Mary Shelley). En 1863, pocos años después de que Charles Darwin publicara El origen de las especies, William King propuso que los neandertales eran una especie extinta del género Homo. Los autores y poetas románticos se interesaron especialmente por el tema.Lord Byron escribió sobre la extinción de la vida en la tierra en su poema "Oscuridad" de 1816, y en 1824 imaginó que la humanidad estaría amenazada por el impacto de un cometa y emplearía un sistema de misiles para defenderse de él. La novela de Mary Shelley de 1826 El último hombre está ambientada en un mundo donde la humanidad casi ha sido destruida por una misteriosa plaga. A principios del siglo XX, el cosmismo ruso, precursor del transhumanismo moderno, abogó por evitar la extinción de la humanidad mediante la colonización del espacio.

Era atómica

La invención de la bomba atómica provocó una ola de debate sobre el riesgo de extinción humana entre científicos, intelectuales y el público en general. En un ensayo de 1945, Bertrand Russell escribió que "[L]a perspectiva para la raza humana es sombría más allá de todo precedente. La humanidad se enfrenta a una alternativa clara: o pereceremos todos, o tendremos que adquirir algún grado leve de del sentido común". En 1950, Leo Szilard sugirió que era tecnológicamente factible construir una bomba de cobalto que podría hacer que el planeta fuera inhabitable. Una encuesta de Gallup de 1950 encontró que el 19% de los estadounidenses creía que otra guerra mundial significaría "el fin de la humanidad". Primavera silenciosa de 1962 de Rachel CarsonSensibilización sobre la catástrofe medioambiental. En 1983, Brandon Carter propuso el argumento del Juicio Final, que utilizaba la probabilidad bayesiana para predecir el número total de seres humanos que existirán.

El descubrimiento del "invierno nuclear" a principios de la década de 1980, un mecanismo específico por el cual la guerra nuclear podría resultar en la extinción humana, volvió a plantear el problema. Al escribir sobre estos hallazgos en 1983, Carl Sagan argumentó que medir la gravedad de la extinción únicamente en términos de aquellos que mueren "oculta su impacto total", y que la guerra nuclear "pone en peligro a todos nuestros descendientes, mientras haya humanos". "

Era moderna

El libro de John Leslie de 1996 El fin del mundo fue un tratamiento académico de la ciencia y la ética de la extinción humana. En él, Leslie consideró una gama de amenazas a la humanidad y lo que tienen en común. En 2003, el astrónomo británico Royal Sir Martin Rees publicó Our Final Hour, en el que argumenta que los avances en ciertas tecnologías crean nuevas amenazas para la supervivencia de la humanidad y que el siglo XXI puede ser un momento crítico en la historia cuando se decida el destino de la humanidad. Editado por Nick Bostrom y Milan M. Ćirković, Global Catastrophic Risks se publicó en 2008, una colección de ensayos de 26 académicos sobre varios riesgos globales catastróficos y existenciales. Libro 2020 de Toby OrdThe Precipice: Existential Risk and the Future of Humanity sostiene que prevenir los riesgos existenciales es una de las cuestiones morales más importantes de nuestro tiempo. El libro discute, cuantifica y compara diferentes riesgos existenciales, concluyendo que los mayores riesgos los presentan la inteligencia artificial y la biotecnología desalineadas.

Causas

Las posibles causas antropogénicas de la extinción humana incluyen la guerra termonuclear global, el despliegue de un arma biológica altamente efectiva, un colapso ecológico, inteligencia artificial fuera de control, nanotecnología fuera de control (como un escenario de sustancia pegajosa gris), un accidente científico que involucre un microagujero negro o un desastre de metaestabilidad del vacío., la superpoblación y el aumento del consumo plantean el riesgo de agotamiento de los recursos y un colapso poblacional concomitante, disminución de la población al optar por tener menos hijos, desplazamiento de humanos evolucionados naturalmente por una nueva especie producida por ingeniería genética o aumento tecnológico. Los riesgos de extinción naturales y externos incluyen una pandemia de alta tasa de mortalidad, una erupción supervolcánica, un impacto de asteroide, una supernova cercana o explosiones de rayos gamma, una erupción solar extrema o una invasión extraterrestre.

Sin la intervención de fuerzas inesperadas, se espera que la evolución estelar del Sol haga que la Tierra sea inhabitable y luego la destruya. Dependiendo de su destino final, el universo entero puede eventualmente volverse inhabitable.

Probabilidad

Natural vs. antropogénico

Los expertos generalmente están de acuerdo en que los riesgos existenciales antropogénicos son (mucho) más probables que los riesgos naturales. Una diferencia clave entre estos tipos de riesgo es que la evidencia empírica puede colocar un límite superior en el nivel de riesgo natural. La humanidad ha existido durante al menos 200.000 años, durante los cuales ha estado sujeta a un nivel aproximadamente constante de riesgo natural. Si el riesgo natural fuera alto, sería muy poco probable que la humanidad hubiera sobrevivido tanto tiempo. Sobre la base de una formalización de este argumento, los investigadores han concluido que podemos estar seguros de que el riesgo natural es inferior a 1 en 14 000 (y probablemente "menos de uno en 87 000") por año.

Otro método empírico para estudiar la probabilidad de ciertos riesgos naturales es investigar el registro geológico. Por ejemplo, un evento de impacto de cometa o asteroide de una escala suficiente para causar un invierno de impacto que provocaría la extinción humana antes del año 2100 se ha estimado en uno en un millón. Además, las erupciones de grandes supervolcanes pueden provocar un invierno volcánico que podría poner en peligro la supervivencia de la humanidad. El registro geológico sugiere que se estima que las erupciones supervolcánicas ocurren en promedio una vez cada 50.000 años, aunque la mayoría de estas erupciones no alcanzarían la escala requerida para causar la extinción humana. Famoso, el supervolcán Mt. Toba puede haber casi aniquilado a la humanidad en el momento de su última erupción (aunque esto es polémico).

Dado que el riesgo antropogénico es un fenómeno relativamente reciente, el historial de supervivencia de la humanidad no puede ofrecer garantías similares. La humanidad solo ha sobrevivido 75 años desde la creación de las armas nucleares, y para las tecnologías futuras, no hay antecedentes en absoluto. Esto ha llevado a pensadores como Carl Sagan a concluir que la humanidad se encuentra actualmente en una "época de peligros", un período excepcionalmente peligroso en la historia humana, en el que está sujeta a niveles de riesgo sin precedentes, desde que los humanos comenzaron a plantearse riesgos a sí mismos por primera vez. sus acciones.

Estimaciones de riesgo

Dadas las limitaciones de la observación y el modelado ordinarios, la elicitación de expertos se usa con frecuencia en su lugar para obtener estimaciones de probabilidad. En 2008, una encuesta informal de expertos en una conferencia organizada por el Future of Humanity Institute estimó un 19 % de riesgo de extinción humana para el año 2100, aunque, dadas las limitaciones de la encuesta, estos resultados deben tomarse "con pinzas"..

RiesgoProbabilidad estimadade extinción humanaantes de 2100
Probabilidad general19%
Armas de nanotecnología molecular5%
IA superinteligente5%
Todas las guerras (incluidas las guerras civiles)4%
Pandemia diseñada2%
Guerra nuclear1%
Accidente de nanotecnología0,5%
Pandemia natural0,05%
terrorismo nuclear0,03%

Fuente de la tabla: Future of Humanity Institute, 2008.

Ha habido una serie de otras estimaciones de riesgo existencial, riesgo de extinción o un colapso global de la civilización:

  • La humanidad tiene una probabilidad del 95% de extinguirse en 7.800.000 años, según la formulación de J. Richard Gott del controvertido argumento del Día del Juicio Final, que argumenta que probablemente ya hemos vivido la mitad de la duración de la historia humana.
  • En 1996, John Leslie estimó un riesgo del 30% durante los próximos cinco siglos (equivalente a alrededor del 9% por siglo, en promedio).
  • En 2003, Martin Rees estimó un 50% de posibilidades de colapso de la civilización en el siglo XXI.
  • El informe anual de 2016 de la Global Challenges Foundation estima una probabilidad anual de extinción humana de al menos un 0,05 % anual.
  • Una encuesta de 2016 de expertos en IA encontró una estimación media del 5% de que la IA a nivel humano causaría un resultado "extremadamente malo (por ejemplo, la extinción humana)".
  • En 2020, Toby Ord estima el riesgo existencial en el próximo siglo en "1 de cada 6" en su libro The Precipice: Existential Risk and the Future of Humanity.
  • Los usuarios de Metaculus actualmente estiman un 3% de probabilidad de que la humanidad se extinga antes de 2100.
  • En una entrevista de 2010 con The Australian, el científico australiano Frank Fenner predijo la extinción de la raza humana dentro de un siglo, principalmente como resultado de la sobrepoblación humana, la degradación ambiental y el cambio climático.
  • Según un estudio de 2020 publicado en Scientific Reports, si la deforestación y el consumo de recursos continúan al ritmo actual, podrían culminar en un "colapso catastrófico de la población humana" y posiblemente "un colapso irreversible de nuestra civilización" en los próximos 20 a 40 años. Según el escenario más optimista proporcionado por el estudio, las posibilidades de que la civilización humana sobreviva son inferiores al 10%. Para evitar este colapso, dice el estudio, la humanidad debería pasar de una civilización dominada por la economía a una "sociedad cultural" que "privilegie el interés del ecosistema por encima del interés individual de sus componentes, pero eventualmente de acuerdo con el interés general comunal".."
  • Nick Bostrom, un filósofo de la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial, argumenta que sería "equivocado" suponer que la probabilidad de extinción a corto plazo es inferior al 25% y que será "una tarea difícil ". " para que la raza humana "tome nuestras precauciones lo suficientemente bien la primera vez", dado que un riesgo existencial no brinda la oportunidad de aprender del fracaso.
  • El filósofo John Leslie asigna un 70% de posibilidades de que la humanidad sobreviva los próximos cinco siglos, basándose en parte en el controvertido argumento filosófico del fin del mundo que defiende Leslie. El argumento de Leslie es algo frecuentista, basado en la observación de que nunca se ha observado la extinción humana, pero requiere argumentos antrópicos subjetivos. Leslie también analiza el sesgo de supervivencia antrópica (que él llama un efecto de "selección observacional" en la página 139) y afirma que el a prioriLa certeza de observar un "pasado no desastroso" podría dificultar el argumento de que debemos estar a salvo porque aún no ha ocurrido nada terrible. Cita la formulación de Holger Bech Nielsen: "Ni siquiera sabemos si debería existir algún decaimiento extremadamente peligroso de, digamos, el protón que causó la erradicación de la tierra, porque si sucede, ya no estaríamos allí para observarlo y si sucede no suceda no hay nada que observar".
  • Jean-Marc Salotti calculó la probabilidad de extinción humana provocada por el impacto de un asteroide gigante. Está entre 0,03 y 0,3 para los próximos mil millones de años, si no hay colonización de otros planetas. Según ese estudio, el objeto más aterrador es un cometa gigante de período largo con un tiempo de advertencia de solo unos pocos años y, por lo tanto, sin tiempo para ninguna intervención en el espacio o asentamiento en la Luna o Marte. La probabilidad del impacto de un cometa gigante en los próximos cien años es 2.2E-12.

Riesgos individuales vs. especies

Aunque los riesgos existenciales son menos manejables por los individuos que, por ejemplo, los riesgos para la salud, según Ken Olum, Joshua Knobe y Alexander Vilenkin, la posibilidad de extinción humana tiene implicaciones prácticas. Por ejemplo, si se acepta el argumento del fin del mundo "universal", cambia la fuente más probable de desastres y, por lo tanto, los medios más eficientes para prevenirlos. Escriben: "... deberías preocuparte más de que una gran cantidad de asteroides aún no han sido detectados que de la órbita particular de cada uno. No debes preocuparte especialmente por la posibilidad de que alguna estrella cercana específica se convierta en una supernova, pero más sobre la posibilidad de que las supernovas sean más letales para la vida cercana de lo que creemos".

Dificultad

Algunos académicos argumentan que ciertos escenarios, como la guerra termonuclear global, tendrían dificultades para erradicar hasta el último asentamiento en la Tierra. El físico Willard Wells señala que cualquier escenario de extinción creíble tendría que llegar a un conjunto diverso de áreas, incluidos los subterráneos de las principales ciudades, las montañas del Tíbet, las islas más remotas del Pacífico Sur e incluso la estación McMurdo en la Antártida. que cuenta con planes de contingencia y suministros para aislamiento prolongado. Además, existen búnkeres elaborados para que los líderes gubernamentales los ocupen durante una guerra nuclear.También se debe considerar la existencia de submarinos nucleares, que pueden permanecer a cientos de metros de profundidad en el océano potencialmente durante años. Cualquier número de eventos podría conducir a una pérdida masiva de vidas humanas, pero si es poco probable que los últimos (ver población mínima viable) los humanos más resistentes también mueran, entonces ese escenario de extinción humana en particular puede no parecer creíble.

Supervivencia final

La supervivencia a muy largo plazo de la humanidad y sus posibles descendientes depende del destino final del universo.

Ética

Valor de la vida humana

Los "riesgos existenciales" son riesgos que amenazan todo el futuro de la humanidad, ya sea provocando la extinción humana o paralizando permanentemente el progreso humano. Múltiples académicos han argumentado, basándose en el tamaño de la "dotación cósmica", que debido a la cantidad inconcebiblemente grande de vidas futuras potenciales que están en juego, incluso las pequeñas reducciones del riesgo existencial tienen un gran valor.

En una de las primeras discusiones sobre la ética de la extinción humana, Derek Parfit ofrece el siguiente experimento mental:

Creo que si destruimos a la humanidad, como podemos hacer ahora, este resultado será mucho peor de lo que la mayoría de la gente piensa. Compara tres resultados:

(1) Paz.(2) Una guerra nuclear que mata al 99% de la población mundial existente.(3) Una guerra nuclear que mata al 100%.

(2) sería peor que (1), y (3) sería peor que (2). ¿Cuál es la mayor de estas dos diferencias? La mayoría de la gente cree que la mayor diferencia está entre (1) y (2). Creo que la diferencia entre (2) y (3) es mucho mayor.—  Derek Parfit

La escala de lo que se pierde en una catástrofe existencial está determinada por el potencial a largo plazo de la humanidad: lo que la humanidad podría esperar lograr si sobreviviera. Desde una perspectiva utilitaria, el valor de proteger a la humanidad es el producto de su duración (cuánto tiempo sobrevive la humanidad), su tamaño (cuántos humanos hay a lo largo del tiempo) y su calidad (en promedio, qué tan buena es la vida para las personas del futuro). En promedio, las especies sobreviven alrededor de un millón de años antes de extinguirse. Parfit señala que la Tierra seguirá siendo habitable durante unos mil millones de años. Y estos podrían ser los límites inferiores de nuestro potencial: si la humanidad es capaz de expandirse más allá de la Tierra, podría aumentar considerablemente la población humana y sobrevivir durante billones de años.El tamaño del potencial perdido que se perdería si la humanidad se extinguiera es muy grande. Por lo tanto, reducir el riesgo existencial incluso en una pequeña cantidad tendría un valor moral muy significativo.

Carl Sagan escribió en 1983: "Si se nos requiere calibrar la extinción en términos numéricos, me aseguraría de incluir el número de personas en las generaciones futuras que no nacerían... (Según un cálculo), lo que está en juego es uno millones de veces mayor para la extinción que para las guerras nucleares más modestas que matan "solo" a cientos de millones de personas. Hay muchas otras medidas posibles de la pérdida potencial, incluida la cultura y la ciencia, la historia evolutiva del planeta y la importancia de las vidas de todos nuestros antepasados ​​que contribuyeron al futuro de sus descendientes. La extinción es la ruina de la empresa humana".

El filósofo Robert Adams en 1989 rechaza los puntos de vista "impersonales" de Parfit pero habla en cambio de un imperativo moral de lealtad y compromiso con "el futuro de la humanidad como un vasto proyecto... La aspiración a una sociedad mejor, más justa, más gratificante y más pacífica... nuestro interés en la vida de nuestros hijos y nietos, y la esperanza de que ellos puedan, a su vez, tener como proyecto la vida de sus hijos y nietos".

El filósofo Nick Bostrom argumentó en 2013 que los argumentos satisfactores de preferencias, democráticos, custodiales e intuicionistas convergen todos en la visión de sentido común de que prevenir el riesgo existencial es una alta prioridad moral, incluso si el "grado exacto de maldad" de la extinción humana varía entre estas filosofías.

Parfit argumenta que el tamaño de la "dotación cósmica" se puede calcular a partir del siguiente argumento: si la Tierra sigue siendo habitable durante mil millones de años más y puede sostener de manera sostenible a una población de más de mil millones de humanos, entonces hay un potencial para 10 (o 10.000.000.000.000.000) vidas humanas de duración normal. Bostrom va más allá y afirma que si el universo está vacío, entonces el universo accesible puede sustentar al menos 10 años biológicos de vida humana; y, si algunos humanos se cargaran en las computadoras, incluso podrían soportar el equivalente a 10 años de vida humana cibernética.

Algunos economistas y filósofos han defendido puntos de vista, incluido el descuento exponencial y los puntos de vista de la ética de la población que afectan a las personas, en los que las personas futuras no importan (o importan mucho menos), moralmente hablando. Si bien estos puntos de vista son controvertidos, incluso ellos estarían de acuerdo en que una catástrofe existencial sería una de las peores cosas imaginables. Acortaría la vida de ocho mil millones de personas que existen actualmente, destruiría todo lo que hace que sus vidas sean valiosas y muy probablemente someterá a muchos de ellos a un profundo sufrimiento. Entonces, incluso dejando de lado el valor de las generaciones futuras, puede haber razones sólidas para reducir el riesgo existencial, basadas en la preocupación por las personas que existen actualmente.

Más allá del utilitarismo, otras perspectivas morales respaldan la importancia de reducir el riesgo existencial. Una catástrofe existencial destruiría más que solo la humanidad: destruiría todos los artefactos culturales, idiomas y tradiciones, y muchas de las cosas que valoramos. Entonces, los puntos de vista morales en los que tenemos el deber de proteger y apreciar las cosas de valor verían esto como una gran pérdida que debería evitarse. También se pueden considerar razones basadas en deberes hacia generaciones pasadas. Por ejemplo, Edmund Burke escribe sobre una "asociación... entre los que están vivos, los que están muertos y los que van a nacer".Si uno se toma en serio la deuda que la humanidad tiene con las generaciones pasadas, Ord argumenta que la mejor manera de pagarla podría ser "pagarla por adelantado" y garantizar que la herencia de la humanidad se transmita a las generaciones futuras.

Hay varios economistas que han discutido la importancia de los riesgos catastróficos globales. Por ejemplo, Martin Weitzman argumenta que la mayor parte del daño económico esperado del cambio climático puede provenir de la pequeña posibilidad de que el calentamiento supere con creces las expectativas de rango medio, lo que resultaría en un daño catastrófico. Richard Posner ha argumentado que la humanidad está haciendo muy poco, en general, sobre los riesgos pequeños y difíciles de estimar de catástrofes a gran escala.

Extinción voluntaria

Algunos filósofos adoptan la posición antinatalista de que la extinción humana no sería algo malo, sino algo bueno. David Benatar argumenta que llegar a existir siempre es un daño grave y, por lo tanto, es mejor que las personas no lleguen a existir en el futuro. Además, David Benatar, el activista por los derechos de los animales Steven Best y el anarquista Todd May postulan que la extinción humana sería algo positivo para los demás organismos del planeta y para el planeta mismo, citando, por ejemplo, la naturaleza omnicida de la civilización humana. La visión ambiental a favor de la extinción humana es compartida por los miembros del Movimiento de Extinción Humana Voluntaria que llaman a abstenerse de reproducirse y permitir que la especie humana se extinga pacíficamente, evitando así una mayor degradación ambiental.

En ficción

Le dernier homme (El último hombre) de Jean-Baptiste Cousin de Grainville de 1805, que describe la extinción humana debido a la infertilidad, se considera la primera novela apocalíptica moderna y se le atribuye el lanzamiento del género. Otros trabajos tempranos notables incluyen The Last Man de Mary Shelley de 1826, que describe la extinción humana causada por una pandemia, y Star Maker de Olaf Stapledon de 1937, "un estudio comparativo del omnicidio".

Algunas obras de ciencia pop del siglo XXI, como The World Without Us de Alan Weisman, y los especiales de televisión Life After People y Aftermath: Population Zero plantean un experimento mental: ¿qué pasaría con el resto del planeta si los humanos desaparecieran repentinamente? Una amenaza de extinción humana, como a través de una singularidad tecnológica (también llamada explosión de inteligencia), impulsa la trama de innumerables historias de ciencia ficción; un ejemplo temprano influyente es la adaptación cinematográfica de 1951 de When Worlds Collide. Por lo general, la amenaza de extinción se evita por poco, pero existen algunas excepciones, como RUR y la IA de Steven Spielberg.

Contenido relacionado

Sacrificio de niños

El sacrificio de niños o sacrificio infantil es el asesinato ritual de niños para complacer o apaciguar a una deidad, a seres sobrenaturales, a un orden...

Crucifixión

La crucifixión es un método de pena capital en el que se ata o se clava a la víctima a una gran cruz o viga de madera y se la deja colgada hasta que muere...

Lapidación

La lapidación o apedreamiento, es un método de pena capital en el que un grupo arroja piedras a una persona hasta que el sujeto muere por un traumatismo...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save