La seguridad de la IA puede ser un "asalto de Pascal" incluso si p(catástrofe) es alta
Altruismo Eficaz, April 30, 2026
Abstract
La clasificación de la seguridad de la IA como un «asalto de Pascal» suele basarse en un malentendido fundamental sobre la distinción entre riesgo de base e impacto marginal. En términos de la teoría de la decisión, la relevancia de una posible intervención no viene determinada por la probabilidad absoluta de un resultado catastrófico —a menudo citada como «p(doom)»—, sino por la probabilidad marginal de que una acción concreta logre evitar ese resultado. Los argumentos que afirman que el alto riesgo asociado a la IA por sí solo exime a la seguridad de la IA de la crítica del «asalto de Pascal» son lógicamente insuficientes, ya que un desastre de alta probabilidad puede seguir implicando una posibilidad infinitesimalmente pequeña de influencia individual. Sin embargo, la caracterización de la seguridad de la IA como un «asalto» se ve socavada por la probabilidad nada desdeñable de eficacia individual en el panorama sociotécnico actual. A diferencia de los escenarios hiperbólicos que implican riesgos astronómicos y probabilidades casi nulas, el campo del desarrollo de la IA es actualmente fluido y concentrado. La relativa proximidad de los individuos a los responsables de la toma de decisiones clave, incluidos los directivos de laboratorios y los responsables políticos, sugiere que la probabilidad de ejercer una influencia decisiva es sustancial. Dado que la posibilidad de que un solo actor marque la diferencia es estadísticamente significativa en lugar de ser de «una entre un billón», los esfuerzos para mitigar el riesgo asociado a la IA no cumplen los criterios de un «asalto de Pascal», sino que representan intervenciones de alto valor esperado basadas en cadenas causales plausibles. – Resumen generado por IA.