Gross y el riesgo de que la humanidad no dure 50 años.





David Gross, Premio Nobel de Física en 2004 (por sus contribuciones a la teoría cuántica de campos y la libertad asintótica), ha generado titulares recientes con una advertencia sobre riesgos existenciales para la humanidad.

En una entrevista con Live Science (alrededor de abril de 2026), Gross afirmó que las probabilidades de que la humanidad (o una persona promedio) viva otros 50 años son muy bajas. Principalmente por el riesgo de una guerra nuclear, y mencionó también preocupaciones como el avance de la IA.Detalles de su argumento
  • Calcula una probabilidad anual de catástrofe nuclear de alrededor del 2% (1 entre 50 por año).
  • Esto implica una "esperanza de vida" para la civilización de aproximadamente 35 años (usando un modelo exponencial simple de riesgos constantes).
  • No es una profecía exacta ni una fecha fija, sino un cálculo probabilístico basado en tensiones geopolíticas actuales, el deterioro de tratados de control de armas, la carrera armamentista y miles de ojivas nucleares aún activas.
  • En el contexto de la entrevista, respondía a una pregunta sobre si los físicos lograrían una teoría unificada de las fuerzas fundamentales en 50 años. Su respuesta fue pragmática: el mayor obstáculo no es la ciencia, sino que la humanidad sobreviva lo suficiente.
Contexto más amplio de riesgos existencialesEsta visión se alinea con discusiones en la comunidad de riesgos globales catastróficos (existential risks). Por ejemplo:
  • Guerra nuclear: Sigue siendo uno de los riesgos más inmediatos y "clásicos". Un intercambio nuclear limitado podría desencadenar un invierno nuclear, colapso agrícola y millones/miles de millones de muertes.
  • IA: Gross también menciona el riesgo de que sistemas autónomos tomen decisiones críticas (incluyendo militares), reduciendo el control humano.
  • Otros expertos (como Toby Ord en The Precipice) estiman riesgos existenciales totales en el próximo siglo en torno a 1 en 6, con la IA y la biotecnología como amenazas crecientes junto a lo nuclear.
Perspectiva equilibradaLas advertencias de Gross son alarmantes pero no inevitables. Son útiles para llamar la atención y priorizar mitigación (diplomacia nuclear, control de armas, alineación de IA, etc.). La historia muestra que la humanidad ha evitado catástrofes cercanas (como la Crisis de los Misiles de Cuba). La probabilidad anual del 2% es una estimación subjetiva; otros analistas dan cifras diferentes según el escenario.Factores positivos: avances en energías renovables, cooperación internacional en algunos ámbitos, y mayor conciencia sobre riesgos existenciales (instituciones como el Future of Humanity Institute o Effective Altruism han impulsado este debate).En resumen, Gross no predice el fin exacto, sino que subraya que el mayor riesgo para nuestro futuro a largo plazo (incluyendo logros científicos) es nuestra propia capacidad de autodestrucción. Es una llamada a la acción más que a la desesperanza.

Entradas más vistas.