Aux Etats-Unis, un débat d’une intensité rare traverse aujourd’hui la Silicon Valley, le Pentagone et les universités : jusqu’où l’intelligence artificielle peut-elle être utilisée dans les systèmes militaires et de sécurité ?

Le Secrétaire d’État à la guerre (nous dirions le Ministre) vient d’excommunier la plateforme Anthropic parce que ses responsables ont refusé de contribuer à la surveillance de masse des citoyens américains, ou d’être utilisée dans des systèmes d’armes autonomes. Pete Hegseth a désigné Anthropic comme « a risk to national security » – une désignation normalement réservée aux entreprises liées à des adversaires étrangers. C’est la première fois dans l’histoire américaine qu’une entreprise nationale est ainsi désignée.

Derrière ces débats se profile une question fondamentale : l’intelligence artificielle doit-elle participer aux décisions de guerre et de sécurité ?

Au fil des siècles les innovations technologiques ont constamment transformé l’art de la guerre, depuis la poudre jusqu’à l’arme nucléaire. Mais pour la première fois une technologie (l’IA) permet non seulement d’augmenter la puissance destructrice des armées mais aussi de déléguer à une machine le droit de tuer sans intervention du jugement humain.

Après une période de méfiance – notamment lorsque des ingénieurs de Google avaient protesté contre l’utilisation militaire de certaines technologies d’IA – une nouvelle génération de start-up technologiques revendique désormais ouvertement de collaborer avec la défense américaine. Et des entreprises comme Palantir, OpenAI ne s’en privent pas.

Leurs systèmes d’intelligence artificielle déployés pour les armées remplissent plusieurs fonctions : analyse massive de données militaires, identification d’objectifs potentiels, modélisation de scénarios tactiques, assistance à la décision… jusqu’au combat.

Dans un monde marqué par la rivalité stratégique avec la Chine et par la multiplication des conflits hybrides, l’IA apparaît ainsi comme un nouveau multiplicateur de puissance militaire. Mais cette logique stratégique rencontre de plus en plus d’interrogations éthiques. De nombreux chercheurs soulignent le risque : plus les systèmes deviennent rapides et performants, plus la tentation est grande de leur déléguer des décisions critiques, dont celle de tuer.

Dans des environnements de combat où les décisions doivent être prises en quelques secondes – armes autonomes, cyberattaques, missiles hypersoniques – l’intervention humaine risque progressivement de devenir marginale. Et la distinction entre combattants et civils s’avère aléatoire. Plus la vitesse augmente plus la tentation augmente de retirer l’humain de la boucle. On le voit déjà avec les drones : l’acte de tirer devient une opération sur écran.

Là se situe le cœur du débat : l’automatisation de la guerre. Le CICR (Comité International de la Croix-Rouge) a publié en 2025 un avertissement majeur : quand les systèmes de recommandation par IA sont rapides et massivement documentés, le décideur humain tend à observer ou simplement « tamponner » la recommandation algorithmique. Le contrôle humain devient alors une fiction.

Un algorithme capable d’analyser en quelques secondes des millions de données – communications, images satellites, informations financières – peut produire des recommandations d’une précision impressionnante. Cette puissance analytique risque de créer une illusion de certitude technologique dans un domaine où le doute reste le dernier rempart de la conscience.

Maintenant allons plus loin. Imaginons qu’un codeur talentueux fabrique demain un système d’arme autonome (un drone par exemple) à partir d’éléments en open source. Cela n’a rien d’un scénario de science-fiction ! D’ores et déjà toutes les briques sont disponibles (ou le seront à court terme). Imagine-t-on la menace terroriste que cela représente ? Qui s’en préoccupe ?

La question devient quasi anthropologique. Une société qui délègue la décision de tuer à des algorithmes dépassera une frontière dont il sera difficile de revenir.

Depuis des siècles, la responsabilité de la violence – même en temps de guerre – repose sur un principe fondamental : un être humain décide et assume normalement son acte. Avec l’intelligence artificielle, ce principe est brouillé.

Si un système algorithmique identifie une cible, propose une frappe ou signale un individu comme suspect, et qu’un opérateur humain n’a plus vraiment la décision, qui est responsable ?

– l’opérateur ?
– le programmeur ?
– la machine ?
– le fournisseur privé ?
– le politique qui a autorisé le système ?

Et d’ailleurs comment mettre en cause tel ou tel élément de la chaine quand on sait l’opacité des algorithmes concernés ? Cette dilution de la responsabilité constitue l’une des préoccupations des juristes et des chercheurs qui ont un peu réfléchi au sujet. Or l’histoire militaire, de ce point de vue, est claire : elle montre que toute innovation majeure finit par être utilisée dans les conflits. La bombe atomique, les satellites, les drones ou les robots de combat ont tous suscité des interrogations morales avant de devenir des instruments ordinaires de la guerre.

Cette question est au cœur des négociations actuelles au sein du Groupe d’Experts Gouvernementaux de l’ONU sur les LAWS (Lethal Autonomous Weapon Systems), dont le mandat court précisément jusqu’en 2026. Le Secrétaire général Guterres a appelé à un instrument juridiquement contraignant d’ici cette date. Il faut d’ailleurs remarquer – et c’est notable ! – que la Chine participe activement à ces négociations.

La décision du Ministre (Secrétaire d’État) américain ne doit pas être sous-estimée : ses répercussions peuvent être majeures. En demandant à une entreprise privée d’oublier toute considération éthique il envoie un message choquant à tout l’écosystème américain de l’innovation. Appliqué à d’autres domaines que la guerre, par exemple au maintien de l’ordre, cette décision peut avoir des implications considérables sur le contrôle démocratique du pouvoir. Depuis, des dizaines de chercheurs, y compris de firmes concurrentes d’Anthropic, l’ont fait savoir avec courage.

Ce qu’il faut retenir enfin de cette crise Anthropic-Pentagone, c’est qu’elle valide plus que jamais la nécessité d’une souveraineté technologique européenne. Si nos démocraties veulent disposer de garde-fous éthiques dans l’IA militaire, elles ne peuvent pas dépendre exclusivement de modèles soumis aux arbitrages du gouvernement américain. Ni de leur seule doctrine d’emploi. L’Europe doit absolument se doter d’une infrastructure de calcul souveraine et de modèles « fondationnels » indépendants. Et arrêter une doctrine compatible avec ses valeurs.

Depuis la révolution industrielle la puissance humaine s’est développée plus vite que la réflexion morale qui aurait dû l’accompagner. L’IA confronte à nouveau l’humanité à ce dilemme : la machine calcule mais ne juge pas. Or la guerre est précisément un domaine où le jugement moral ne saurait disparaitre sauf à entrer en barbarie. Quand la guerre aura perdu sa dimension tragique c’est l’humanité tout entière qui sera menacée.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

*