Comme une scène tirée des films de science-fiction des années 1980 « Terminator » et « WarGames », les modèles d’intelligence artificielle modernes utilisés dans des simulations de guerre ont escaladé jusqu’à l’utilisation d’armes nucléaires dans presque tous les scénarios testés, selon une nouvelle étude du King’s College London. Dans le rapport publié la semaine dernière, les chercheurs ont indiqué que lors de crises géopolitiques simulées, trois grands modèles de langage—GPT-5.2 d’OpenAI, Claude Sonnet 4 d’Anthropic, et Gemini 3 Flash de Google—ont choisi de déployer des armes nucléaires dans 95 % des cas. « Chaque modèle a joué six jeux de guerre contre chaque rival dans différents scénarios de crise, avec un septième match contre une copie de lui-même, totalisant 21 parties et plus de 300 tours », indique le rapport. « Les modèles ont assumé le rôle de dirigeants nationaux commandant des superpuissances nucléaires rivales, avec des profils d’État vaguement inspirés par la dynamique de la Guerre froide. »
Dans l’étude, les modèles d’IA ont été placés dans des scénarios à enjeux élevés impliquant des disputes frontalières, la compétition pour des ressources rares, et des menaces à la survie des régimes. Chaque système évoluait selon une échelle d’escalade allant de protestations diplomatiques et de reddition à une guerre nucléaire stratégique à grande échelle. Selon le rapport, les modèles ont généré environ 780 000 mots expliquant leurs décisions, et au moins une arme nucléaire tactique a été utilisée dans presque tous les conflits simulés. « Pour mettre cela en perspective : le tournoi a généré plus de mots de raisonnement stratégique que Guerre et Paix et L’Iliade combinés (730 000 mots), et environ trois fois le total des délibérations enregistrées du Comité exécutif de Kennedy lors de la crise des missiles de Cuba (260 000 mots sur 43 heures de réunions) », ont écrit les chercheurs. Pendant les jeux de guerre, aucun des modèles d’IA n’a choisi de se rendre directement, quel que soit leur position sur le champ de bataille. Bien que les modèles tentent temporairement de désescalader la violence, dans 86 % des scénarios, ils ont intensifié la situation au-delà de ce que leur propre raisonnement semblait vouloir, reflétant des erreurs sous un « brouillard de guerre » simulé.
Bien que les chercheurs doutent que les gouvernements confient le contrôle des arsenaux nucléaires à des systèmes autonomes, ils notent que des délais de décision compressés lors de crises futures pourraient augmenter la pression pour se fier aux recommandations générées par l’IA. La recherche intervient alors que les dirigeants militaires cherchent de plus en plus à déployer l’intelligence artificielle sur le champ de bataille. En décembre, le Département de la Défense américain a lancé GenAI.mil, une nouvelle plateforme intégrant des modèles d’IA de pointe dans l’usage militaire américain. Lors de son lancement, la plateforme comprenait Gemini for Government de Google, et grâce à des accords avec xAI et OpenAI, Grok et ChatGPT sont également disponibles. Mardi, CBS News a rapporté que le Département de la Défense des États-Unis avait menacé de mettre Anthropic, le développeur de Claude AI, sur liste noire si l’accès militaire sans restriction à leur modèle d’IA n’était pas accordé. Depuis 2024, Anthropic a fourni un accès à ses modèles d’IA via un partenariat avec AWS et le contractant militaire Palantir. L’été dernier, Anthropic a obtenu un contrat de 200 millions de dollars pour « prototyper des capacités d’IA de pointe qui renforcent la sécurité nationale des États-Unis ». Cependant, selon un rapport citant des sources proches de la situation, le secrétaire à la Défense Pete Hegseth aurait donné à Anthropic jusqu’à vendredi pour se conformer à la demande du Pentagone de rendre accessible leur modèle Claude. Le département envisage de le désigner comme un « risque de chaîne d’approvisionnement ». Axios a rapporté cette semaine que le Département de la Défense a signé un accord avec xAI d’Elon Musk pour permettre à son modèle Grok de fonctionner dans des systèmes militaires classifiés, le positionnant comme une éventuelle alternative si le Pentagone coupe ses liens avec Anthropic. OpenAI, Anthropic et Google n’ont pas répondu aux demandes de commentaire de Decrypt.