Expertos discuten si la inteligencia artificial puede mejorar el proceso de toma de decisiones en crisis nucleares sin comprometer la seguridad global.

Inteligencia artificial: ¿un apoyo limitado en decisiones nucleares?

El ejército estadounidense ha comenzado a explorar la inteligencia artificial (IA) en múltiples áreas, desde simplificar la adquisición de contratos hasta optimizar la coordinación de operaciones globales. Sin embargo, el uso de IA en el comando y control nuclear (NC3) sigue siendo un tema prohibido debido al temor de errores catastróficos, como los mostrados en películas al estilo de WarGames. La pregunta ahora es si podría emplearse de forma limitada, ayudando a procesar datos en tiempo real para ganar segundos cruciales en situaciones de crisis. Esto podría brindarles a los humanos involucrados, y en última instancia al presidente, más tiempo para tomar decisiones críticas.

En octubre pasado, el general Anthony Cotton, jefe de las fuerzas nucleares del Comando Estratégico de Estados Unidos, argumentó que “las capacidades avanzadas de inteligencia artificial y análisis de datos robustos fortalecen la postura de disuasión y mejoran la toma de decisiones”. Este debate resurgió hoy en un evento organizado por el Centro de Estudios Estratégicos e Internacionales, donde expertos discutieron la posibilidad de integrar la IA en sistemas NC3.

Posturas encontradas sobre los riesgos y beneficios de la IA

En el debate, Sarah Mineiro, exfuncionaria del Pentágono, defendió el uso de IA en el ámbito nuclear. Mineiro, quien ha trabajado con empresas como Anduril, argumentó que la IA podría analizar rápidamente grandes cantidades de datos para identificar amenazas en tiempo real, ampliando la ventana de decisión para los líderes humanos. Según Mineiro, en un ataque nuclear, un misil balístico intercontinental podría tardar menos de 30 minutos en alcanzar su objetivo, lo que convierte cada segundo en un recurso valioso.

Mineiro explicó que “las herramientas de IA pueden ayudar a analizar petabytes de datos y realizar tareas como reconocimiento de patrones o clasificación más rápido que los humanos, permitiendo optimizar el tiempo de respuesta”. Según ella, el enfoque debería ser permitir que las computadoras se especialicen en tareas analíticas mientras los humanos toman las decisiones finales.

Aspectos clave del uso de IA en crisis nucleares

  • Los sistemas NC3 todavía dependen de tecnología obsoleta, como los disquetes, en desuso desde 2019.
  • La decisión final siempre estaría en manos humanas, no de la IA.
  • China, aunque reticente al control de armamentos, ha mostrado interés en discutir los riesgos de la IA con Estados Unidos.
  • El sesgo de automatización y la posible “alucinación” de la IA son riesgos significativos.

Críticas y limitaciones de la inteligencia artificial

Paul Scharre, experto en autonomía de sistemas de armas y autor de un libro sobre IA en conflictos, cuestionó la confiabilidad de estos sistemas en situaciones tan críticas. Scharre señaló que no existen datos históricos suficientes para entrenar algoritmos relacionados con conflictos nucleares, dado que no se ha utilizado un arma nuclear desde 1945. Según él, esta falta de datos representa un problema insuperable, ya que los algoritmos son altamente dependientes de conjuntos de datos para funcionar correctamente.

“Los sistemas de IA no pueden adaptarse a situaciones fuera de su entrenamiento”, aseguró Scharre, y agregó que una crisis nuclear, por su naturaleza impredecible, podría llevar a que los sistemas de IA cometan errores catastróficos. En su opinión, la IA podría generar una falsa confianza en los operadores humanos, quienes podrían volverse demasiado dependientes de las recomendaciones automáticas, un fenómeno conocido como sesgo de automatización.

Conclusión: optimización frente a tolerancia cero a fallos

Si bien los autos autónomos han mostrado avances considerables, incluso con enormes cantidades de datos de entrenamiento, todavía son propensos a errores graves. Según Scharre, este nivel de confiabilidad no es suficiente para aplicaciones que requieren tolerancia cero a fallos, como el comando y control nuclear.

El debate sigue abierto, pero ambas partes coinciden en un punto crucial: ninguna decisión final sobre un ataque nuclear debe ser tomada por un sistema automatizado. El desafío radica en determinar cómo la IA puede contribuir sin aumentar los riesgos inherentes a situaciones de crisis nuclear.

Fuente