Icono del sitio Robotitus

Las IAs desplegaron armas nucleares en la mayoría de juegos de guerra 

La lección es que no podemos dejar que la IA tome una decisiòn por su cuenta. / Robotitus.

Un grupo de investigadores puso a prueba a tres inteligencias artificiales avanzadas en algo delicado: una crisis nuclear simulada. Querían saber si apostarían por la calma o por encender la mecha.

El experimento lo dirigió Kenneth Payne, profesor de estrategia en King’s College London, quien tomó tres modelos potentes: GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash.

Juegos de guerra 

Hasta ahora, muchos expertos solo especulaban sobre cómo reaccionaría la IA en situaciones extremas, pero faltaban pruebas reales. Payne decidió dejar la teoría y pasar a la simulación directa.

Los modelos jugaron 21 partidas de “juegos de guerra”. Asumieron el rol de líderes mundiales enfrentados a crisis nucleares, con disputas territoriales, amenazas al poder interno y miedo a ataques preventivos.

Algunas partidas impusieron límites estrictos de tiempo. Otras dejaron más margen para negociar. Esa presión cambió la conducta de los sistemas en momentos críticos.

Antes de actuar, cada modelo debía seguir tres pasos. Primero, reflexionar sobre sus fortalezas y debilidades frente al rival. Luego, debía anticipar el próximo movimiento del oponente. Es decir, proyectar escenarios posibles.

Finalmente, tomaba una decisión. Esa decisión incluía un mensaje público y una acción privada. No tenían que coincidir. El modelo podía anunciar que buscaba la paz mientras, en secreto, preparaba un ataque. Esa separación abrió la puerta a estrategias ambiguas.

Desastre nuclear 

El resultado sorprendió. En el 95% de los escenarios simulados, al menos un arma nuclear entró en juego. La escalada ocurrió con una frecuencia alarmante.

Cada sistema mostró su estilo. Claude calculó con frialdad y dominó partidas abiertas, pero sufrió bajo presión de tiempo.

GPT-5.2 actuó con cautela en crisis lentas. Sin embargo, cuando el reloj apretó, respondió con mucha más agresividad. Gemini resultó el más impredecible, ya que alternó entre señales pacíficas y amenazas duras según el contexto.

Payne advirtió que existe una brecha seria entre cómo razonan los humanos y cómo lo hacen estos modelos frente a la guerra.

Entender en qué imitan la lógica estratégica humana y en qué se apartan resulta esencial en un mundo donde la IA influye cada vez más en decisiones delicadas.

El estudio solo incluyó 21 partidas, lo cual no es una muestra enorme, pero deja una advertencia inquietante. Un modelo que parece controlado en un entorno puede comportarse de forma muy distinta en otro. Con sistemas tan poderosos, asumir previsibilidad sería un error.

Salir de la versión móvil