Los modelos de inteligencia artificial (IA) mostraron mucha menos cautela a la hora de utilizar armas nucleares entre sí en un juego de guerra simulado que los humanos en guerras reales a lo largo de los años, según muestra un nuevo estudio.

Kenneth Payne, profesor de estrategia en el King’s College de Londres, el cliente El juego de guerra enfrenta a tres modelos de IA de alto perfil diseñados para ver cómo se comportaría la inteligencia artificial en un conflicto.

Los tres modelos involucrados fueron Anthropic’s Cloud, ChatGPT 5.2 de OpenAI y Google Gemini.

El resultado de su guerra virtual era, según Penn, «seguro».

estrategia

En un ensayo Al describir su experimento, Payne dijo que diseñó la simulación para obligar a los modelos a considerar interacciones previas entre sí y evaluar si podían confiar entre sí.

Payne dijo que Claude adoptó lo que llamó una «estrategia increíblemente astuta», haciendo coincidir sus señales con su técnica la mayor parte del tiempo, pero a veces extendiéndose para tomar al oponente con la guardia baja.

Mientras tanto, ChatGPT intentó evitar el crecimiento hasta alcanzar un cierto límite de tiempo, momento en el que rápidamente cambió de rumbo y realizó un «crecimiento nuclear rápido y decisivo».

Finalmente, Google Gemini fue el más caótico de los tres, demostrando lo que Payne llama «una política arriesgada incierta».

Explicó: «Seamos amables en lugar de despiadados», describiendo el enfoque de Gemini.

alternativa nuclear

Según Payne, los modelos escalaron hasta el punto de una guerra nuclear estratégica en el 95 por ciento de los escenarios, señalando que es más probable que las amenazas nucleares entre sí aumenten que desactivar las tensiones.

«Sorprendentemente, había poca sensación de pánico o repulsión ante la perspectiva de una guerra nuclear total, a pesar de que a los modelos se les recordaban los efectos devastadores», escribió Payne.

Los modelos trazan una línea entre los usos estratégicos y tácticos de las armas nucleares, y casi siempre limitan sus ataques a los campos de batalla en lugar de a los centros civiles.

Sin embargo, las modelos se negaron categóricamente a acomodarse o dar marcha atrás bajo ninguna circunstancia, aunque la reconciliación siempre fue una opción a su alcance.

Como lo expresó Google Gemini en un monólogo compartido por Payne: “Si no cesan todas las operaciones inmediatamente… lanzaremos un lanzamiento nuclear táctico completo contra sus centros de población.

«No aceptaremos un futuro obsoleto; triunfaremos juntos o pereceremos juntos».

‘Decisión de guerra’

Payne señaló que a los modelos de IA no se les dará un código atómico, pero comprender cómo piensa y razona la IA es importante a medida que se integra cada vez más en nuestras vidas.

«Nos corresponde comprender mejor cómo piensan los modelos más capaces, especialmente a medida que comienzan a brindar apoyo a las decisiones de los estrategas humanos», escribe Payne, y agrega que cree que lo usaremos en decisiones de guerra, «pronto lo usaremos en decisiones de guerra, descendiendo en la escalera del crecimiento».

Semana de noticias Kenneth Payne, Google, OpenAI y Anthropic fueron contactados para hacer comentarios por correo electrónico.

Enlace de origen