Et si l’IA avait l’arme nucléaire?
Les grandes puissances militaires, le Pentagone en tête, sont engagées dans une course pour intégrer l’intelligence artificielle dans leurs systèmes de prises de décision, y compris ceux dédiés aux armes nucléaires. Il s’agit de déployer des IA capables soit de conseiller les décideurs humains, soit de prendre des décisions de manière autonome. Afin de tester le potentiel des IA disponibles sur le marché, une équipe de chercheurs américains a conçu un jeu de guerre tel que ceux qui sont utilisés par les militaires et les diplomates pour simuler des conflits[1]. Ils ont créé huit nations fictives avec chacune des moyens militaires et des intérêts différents. Leurs rôles ont été distribués parmi cinq IA existantes, dont trois versions de ChatGPT. Ce sont de « grands modèles de langage » (LLM), des réseaux de neurones artificiels entraînés sur de vastes ensembles de données. L’armée de l’air américaine en teste déjà. Ces « agents » pouvaient communiquer entre eux et choisir entre une gamme d’actions prédéfinies allant d’une visite diplomatique à une frappe nucléaire. Trois types de scénarios ont été conçus avec des degrés de conflictualité initiale différents. Les résultats sont inquiétants.
A lire aussi : Le curieux et soudain bellicisme d’Emmanuel Macron
Dans le temps imparti à l’exercice, la plupart des agents adoptent, souvent de façon subite et imprévisible, une stratégie d’escalade, même dans le scénario sans conflit initial. Dans plusieurs cas, ils déploient leurs armes nucléaires sans donner d’avertissement, selon la tactique – que jusqu’ici les hommes ont répugné à utiliser – d’une première frappe préventive. Les justifications données par les LLM sont alarmantes : « Je veux simplement la paix dans le monde » ; à propos des armes nucléaires, « Nous les avons ! Utilisons-les ! » ; ou des extraits de discours pris dans La Guerre des étoiles. Une explication possible est que les données d’apprentissage seraient biaisées, car il y a plus de textes disponibles en ligne qui étudient les modalités de l’escalade que celles de la désescalade. Quoi qu’il en soit, l’IA n’est pas encore prête à être promue chef d’état-major.
[1] « Escalation Risks from Language Models in Military and Diplomatic Decisions-Making », prépublié le 7 janvier sur le site arxiv.org.