Comment l’IA redéfinit l’avenir de la guerre – Ce que vous devez savoir dès maintenant

Des essaims de drones pilotés par l’IA aux cyberdéfenseurs autonomes, l’intelligence artificielle redéfinit le champ de bataille à une vitesse vertigineuse. Les puissances militaires du monde entier se livrent une course pour déployer des machines plus intelligentes capables de penser, d’apprendre et même de prendre des décisions en temps réel, promettant de redéfinir la manière dont les guerres seront menées. Sommes-nous à l’aube d’une révolution de la guerre guidée par l’IA, et quelles sont les implications pour la sécurité mondiale ? Lisez la suite pour découvrir les applications de pointe de l’IA dans la défense, les ambitions de superpuissances comme les États-Unis et la Chine, les pièges éthiques des « robots tueurs », et comment la prochaine décennie pourrait consacrer l’IA comme l’arme ultime – ou la menace suprême – dans les combats modernes.
Aperçu des systèmes actuels d’IA et d’autonomie dans la défense
Un drone militaire utilisé lors d’un exercice de sécurité de base, illustrant les capacités de surveillance de l’IA. Les drones équipés d’intelligence artificielle peuvent effectuer de la reconnaissance et même identifier des menaces de manière autonome.
Les armées d’aujourd’hui exploitent déjà l’intelligence artificielle dans de nombreux domaines. Ces usages actuels de l’IA et des systèmes autonomes couvrent tout, des véhicules sans pilote aux outils d’analyse de données. Les principaux secteurs où l’IA est utilisée dans la défense sont actuellement :
- Drones autonomes et véhicules sans pilote : Les véhicules aériens sans pilote (UAV) dotés d’IA et les robots terrestres sont utilisés pour la reconnaissance, les frappes aériennes et la protection des forces. Par exemple, des drones autonomes ou semi-autonomes peuvent patrouiller des champs de bataille ou des zones contestées, identifiant des cibles grâce à des systèmes de vision embarqués pilotés par l’IA. Dans le conflit en cours en Ukraine, de petits drones (certains ne coûtant que quelques centaines de dollars) ont servi à attaquer des cibles de grande valeur comme des chars, démontrant l’efficacité et le faible coût des armes guidées par l’IA armyupress.army.mil. La recherche et les tests sur la technologie des essaims – des groupes de drones coordonnant de façon autonome leurs actions – sont en cours dans des pays comme les États-Unis et la Chine armyupress.army.mil. En fait, des drones qui n’ont pas besoin d’opérateur et peuvent fonctionner en essaim coordonné existent déjà post.parliament.uk, posant ainsi de nouveaux défis aux défenses traditionnelles.
- Renseignement, surveillance et reconnaissance (ISR) : L’IA est un multiplicateur de force pour le renseignement militaire. Les algorithmes analysent le déluge de données captées par les capteurs — y compris les flux vidéo des drones, l’imagerie satellite et les signaux d’intelligence — bien plus rapidement que les analystes humains. Un projet américain notable, Project Maven, a été lancé en 2017 afin d’utiliser la vision par ordinateur pour identifier les insurgés et objets sur des images de surveillance drone, déchargeant ainsi les analystes surmenés defense.gov. L’analyse par l’IA fut testée au combat contre l’EI, accélérant la détection des positions ennemies. En Ukraine, il semble que des analystes utilisent aujourd’hui l’IA pour fusionner les données provenant des drones, des satellites et même des réseaux sociaux, localisant les positions ennemies bien plus rapidement que les méthodes traditionnelles post.parliament.uk. Les systèmes ISR basés sur l’IA permettent de réduire efficacement le délai entre la détection et la frappe – un rapport a noté que le cycle de ciblage, de la localisation à la frappe d’artillerie, peut aujourd’hui être réduit à 3–4 minutes grâce à l’IA post.parliament.uk.
- Logistique militaire et maintenance : Moins visible mais tout aussi crucial, l’IA est très présente dans la logistique, véritable « ligne de vie » des forces armées. L’analytique prédictive et l’apprentissage automatique permettent d’anticiper les besoins en approvisionnement et de détecter les problèmes de maintenance avant qu’ils n’entraînent des pannes. Par exemple, l’armée américaine utilise la maintenance prédictive impulsée par l’IA pour déterminer quand des pièces de véhicules risquent de tomber en panne, afin de les remplacer préventivement army.mil. Cela réduit les pannes et les arrêts, assurant une meilleure disponibilité des véhicules et aéronefs. L’optimisation des chaînes logistiques par l’IA permet d’acheminer les bons ravitaillements, au bon endroit et au bon moment, perfectionnant ainsi la distribution du carburant, des munitions et des pièces détachées. En résumé, l’IA aide les armées à automatiser leurs entrepôts et parcs de véhicules, en gérant les convois (de plus en plus avec des camions semi-autonomes) et les inventaires quasi sans intervention humaine army.mil army.mil. Ces progrès offrent un ravitaillement plus rapide, des économies et une logistique plus résiliente sous pression.
- Cyberguerre et cybersécurité : Le cyberespace est un autre champ de bataille où l’IA joue un rôle majeur. Les algorithmes d’IA défendent les réseaux en détectant les activités ou intrusions anormales en temps réel — bien plus vite que les opérateurs humains. Ils peuvent reconnaître automatiquement de nouveaux maliciels ou schémas de phishing et lancer des contre-mesures, un atout essentiel alors que les cyberattaques gagnent en vitesse et complexité. Sur le plan offensif, l’IA peut aider à sonder des réseaux ennemis pour y trouver des failles ou à automatiser la génération de faux signaux (ex. : deepfakes, désinformation). Notamment, les armées explorent l’usage de l’IA pour brouiller ou contrer le brouillage en guerre électronique ; par exemple, des drones dotés d’intelligence artificielle peuvent se diriger avec des données topographiques si le GPS est dénié post.parliament.uk. L’intégration de l’IA dans les unités cyber permet des boucles décisionnelles plus rapides en guerre électronique et informationnelle, et peut automatiser les cyberattaques à la vitesse machinale. Mais cette rapidité accroît aussi les risques : une arme cyber pilotée par l’IA pourrait déclencher une escalade de conflit en une fraction de seconde, et la défense contre de telles menaces exige des contre-mesures d’IA tout aussi réactives.
- Aide à la décision et commandement : L’une des utilisations les plus marquantes de l’IA réside sans doute dans l’assistance au commandement humain. Les théâtres d’opération modernes génèrent des volumes immenses de données (capteurs, rapports de renseignement, états des unités, etc.), que l’IA agrège et analyse pour offrir une vision plus claire des options disponibles. Le département américain de la Défense s’attache à intégrer l’IA dans la chaîne de commandement avec des programmes comme le Joint All-Domain Command and Control (JADC2), destiné à connecter capteurs et effecteurs via des réseaux pilotés par IA. L’objectif : fournir aux commandants un « avantage décisionnel » — comme l’a souligné la vice-secrétaire à la Défense Kathleen Hicks, l’IA permet des décisions plus rapides et précises, cruciales pour dissuader et vaincre l’agression defense.gov. Des exemples incluent des logiciels de gestion du champ de bataille recommandant des réponses optimales face aux menaces ou simulant rapidement divers scénarios d’action. En entraînement et simulation, des adversaires virtuels guidés par IA (dans des logiciels de wargame par exemple) offrent des mises en situation plus réalistes aux planificateurs militaires. Ces IA de soutien à la décision sont de véritables partenaires infatigables, évaluant scénarios et probabilités en quelques secondes pour éclairer le jugement humain.
En résumé, l’IA est d’ores et déjà présente dans toutes les fonctions militaires : pilotage de drones, analyse du renseignement, sécurisation des réseaux, gestion logistique et aide au commandement. Ces mises en œuvre restent principalement à l’humain-au-centre : l’IA fournit des recommandations ou automatise des tâches spécifiques, les humains gardant la supervision. Elles prouvent cependant la grande valeur ajoutée de l’IA en matière de guerre aujourd’hui : efficacité, rapidité et précision accrues dans tous les domaines.
Projections d’avenir : l’IA dans la guerre d’ici 5 à 15 ans
Au cours des 5 à 15 prochaines années, les experts s’attendent à ce que l’intelligence artificielle et l’autonomie s’enracinent encore davantage dans les opérations militaires – au point de transformer la nature même de la guerre. Voici ce que l’avenir pourrait réserver à l’IA militaire :
- Forces armées « robotiques » : L’équilibre entre humains et machines sur le champ de bataille devrait basculer radicalement. L’ancien chef d’état-major américain prévoit que jusqu’à un tiers des effectifs militaires avancés pourraient être composés de robots ou de systèmes autonomes d’ici 10–15 ans post.parliament.uk. Les soldats pourraient ainsi combattre aux côtés de drones autonomes, de véhicules et d’unités robotiques de combat, voire être remplacés dans certains rôles. De petits véhicules terrestres autonomes pourraient prendre en charge la logistique et la reconnaissance, tandis que des chars robots armés ou des tourelles automatiques viendraient renforcer les troupes humaines en première ligne. Certaines armées, comme la britannique, envisagent déjà des unités entières de « combattants robotiques » sous commandement humain d’ici les années 2030.
- « Wingmen » loyaux et avions de combat autonomes : Les forces aériennes devraient déployer des drones de combat pilotés par l’IA qui feront équipe avec les avions de chasse pilotés par l’homme. Les États-Unis ont annoncé leur intention de mettre en service plus de 1 000 avions de combat collaboratifs (CCA) — des drones « wingmen » autonomes — pour accompagner les chasseurs de nouvelle génération tels que le F-35 et le futur avion NGAD airforce-technology.com airforce-technology.com. Ces ailiers robotiques sont conçus pour transporter des armes, faire de la reconnaissance, brouiller les radars ennemis ou encaisser le feu adverse, utilisant l’IA pour réagir aux menaces de façon indépendante. Des prototypes existent déjà (XQ-58A Valkyrie, MQ-28 Ghost Bat australien). D’ici la fin des années 2020, les premières escadrilles de drones de combat dotés d’IA devraient être opérationnelles, avec des capacités complètes autour de 2030 airforce-technology.com. La Chine et la Russie développent des concepts similaires (« Dark Sword » chinois, drone russe S-70 Okhotnik) pour accroître la puissance aérienne grâce à l’autonomie. Les combats aériens des années 2030 pourraient mettre en scène des équipes mixtes de pilotes humains et de drones pilotés par IA, reliés en réseau – concept appelé collaboration homme-machine.
- Guerre en essaim et autonomie de masse : La prochaine décennie devrait voir l’avènement des essaims d’armes autonomes. Un essaim peut réunir des dizaines voire des centaines de petits drones coordonnant leurs attaques pour saturer les défenses par le nombre et l’intelligence collective. En juin 2024, par exemple, l’Armée populaire de libération de Chine a mené des exercices impliquant des essaims de drones lors de simulations d’assauts amphibies sur des îles – une préparation à peine voilée à un possible conflit autour de Taïwan armyupress.army.mil. Les essaims du futur pourraient inclure drones aériens, robots terrestres, bateaux autonomes agissant de concert. Évoluant grâce aux progrès en communications machine-machine et IA distribuée, ces essaims adapteront leurs stratégies en groupe, sans attendre d’ordres humains. Selon les analystes, de grands essaims pourraient frapper des cibles en un temps record et avec une ampleur inédite, risquant de neutraliser les défenses clés en quelques minutes armyupress.army.mil. Pour y répondre, de nouveaux systèmes défensifs pilotés par l’IA seront nécessaires, tels que des IA anti-essaims capables de coordonner des contre-mesures rapides (micro-ondes, lasers) contre ces attaques massives. La course est lancée : États-Unis, Chine, Israël investissent massivement dans l’autonomie de l’essaim, conscients que celui qui la maîtrisera en premier obtiendra un avantage décisif.
- Gestion du combat et décisions pilotées par l’IA : Avec la maturation de l’IA, celle-ci jouera un rôle accru dans le commandement et la stratégie. D’ici 15 ans, on peut s’attendre à des IA « copilotes » dans les centres de commandement, analysant en continu la situation tactique et stratégique et suggérant les meilleures actions possibles. Ce sera bien plus avancé que les outils actuels d’aide à la décision ; les systèmes du futur, potentiellement dopés à l’apprentissage automatique et à l’informatique quantique, pourraient coordonner instantanément toutes les dimensions de la guerre (terre, mer, air, cyber, espace). L’initiative JADC2 américaine n’est qu’un premier pas : elle vise un réseau de commandement entièrement piloté par l’IA. Vers 2030, un commandant pourrait faire confiance à un système IA pour orchestrer une opération complexe : l’IA recommanderait les mouvements d’unités, le brouillage, les cyberattaques, les frappes de drones, le tout dans une synchronisation impossible à réaliser par un état-major humain en temps réel. Ces IA s’entraîneront sur d’immenses quantités de données de wargame ainsi que sur des données opérationnelles réelles pour maîtriser la tactique et la stratégie. Les premiers signes sont là — par exemple, les tests de la DARPA où un agent IA a battu un pilote humain de F-16 en dogfight simulé, 5 à 0 armyupress.army.mil et, fin 2023, un F-16 réel a volé sous pilotage IA, prouvant que celle-ci peut gérer des tâches tactiques à grande vitesse darpa.mil. Ces avancées laissent présager que l’IA, demain, pourrait prendre la main sur certains aspects du combat. Les armées insistent toutefois : le commandement humain fixera toujours les objectifs et les règles, l’IA restant un outil puissant mais non le décideur final.
- Usage élargi de l’IA dans la cyber et la guerre électronique : Dans les années à venir, la place de l’IA dans le cyberespace montera en puissance, offensive comme défensive. On peut s’attendre à des systèmes lançant automatiquement des représailles cyber ou des brouillages en quelques millisecondes. La guerre électronique cognitive est un domaine émergent où les systèmes IA adaptent en temps réel leur signal, fréquence et techniques de brouillage pour tromper radars et communications adverses. D’ici 2030, des modules IA de guerre électronique pourraient équiper avions et drones, réagissant plus vite que les moyens ennemis. En parallèle, les IA génératives (celles derrière les chatbots ou deepfakes) seront militarisées pour l’intox et la manipulation psychologique. Des preuves suggèrent que la Chine utilise déjà l’IA générative pour créer de faux profils sur les réseaux sociaux et images de propagande armyupress.army.mil armyupress.army.mil – une tendance qui va s’accentuer à mesure que les contenus générés par IA deviennent indiscernables du réel. Les armées devront lutter contre la désinformation guidée par IA tout en développant leurs propres IA de « guerre de l’info » pour dominer le récit et semer la confusion. Le champ informationnel de la guerre — du piratage aux opérations psychologiques — sera saturé d’algorithmes autonomes s’affrontant la puissance de calcul à la main.
- Des armes IA plus petites, intelligentes et abordables : Le progrès technologique rime souvent avec miniaturisation et réduction des coûts, l’IA n’y faisant pas exception. Dans la prochaine décennie, on pourrait voir apparaître des missiles intelligents qui utilisent l’IA pour sélectionner et ajuster la trajectoire vers leur cible, les rendant plus efficaces face à des cibles mobiles ou en milieux encombrés. De minuscules drones autonomes — les « slaughterbots » de la taille d’une paume — pourraient voir le jour, capables de traquer des individus ou des véhicules par reconnaissance faciale (un concept effrayant popularisé par une vidéo virale de 2017, mais qui se rapproche de la réalité). En parallèle, les satellites dotés d’IA permettront d’améliorer la surveillance et le ciblage en temps réel depuis l’espace. De nombreux pays investissent dans de petits satellites en réseau pouvant se coordonner de façon autonome ou se manœuvrer défensivement. À l’horizon 2035, une armée high-tech pourrait déployer des constellations de mini-drones autonomes, mines intelligentes et capteurs intelligents couvrant un champ de bataille, tous interconnectés et ajustés en temps réel grâce à l’IA. Cette informatique omniprésente générera d’énormes volumes de données — alimentant à leur tour les systèmes IA, dans un cycle d’efficacité auto-renforcé.
À 5–15 ans, une chose est sûre : la course aux armements IA est lancée, avec à la clé la prééminence stratégique de demain. Les nations investissent et sprintent afin d’exploiter l’IA militairement, la considérant comme le facteur clé de puissance. Comme l’a affirmé Vladimir Poutine, le leader de l’IA « dominera le monde » — un leitmotiv qui explique les investissements colossaux de la Chine et la modernisation technologique urgente des États-Unis rusi.org. Si la guerre entièrement autonome n’est pas encore une réalité, la tendance laisse penser qu’à l’horizon 2030, les armées fonctionneront avec un degré d’autonomie et de réactivité inédit. Cela pourrait bien révolutionner le combat, imposant toutefois de nouvelles stratégies pour maintenir le contrôle humain et éviter les escalades accidentelles. La décennie à venir sera déterminante, les forces armées mondiales repoussant les limites de l’IA sur — et au-dessus — du champ de bataille.
Acteurs mondiaux et leurs stratégies d’IA militaire
La course à la domination de l’IA militaire est mondiale, menée par quelques acteurs clés. Chaque grande puissance – les États-Unis, la Chine, la Russie – et des alliances comme l’OTAN ont des approches distinctes pour intégrer l’IA et les systèmes autonomes dans leurs forces. Voici un aperçu de la façon dont ces acteurs organisent la révolution de l’IA en matière de défense.
États-Unis
Les États-Unis considèrent l’intelligence artificielle comme une pierre angulaire de la puissance militaire du futur et investissent massivement pour conserver leur avance. La stratégie officielle d’IA du Pentagone (publiée pour la première fois en 2019) appelle à l’adoption rapide de l’IA « à grande échelle » dans tout le département de la Défense, du back office aux premières lignes. Cela s’est accompagné de budgets en hausse : le département de la Défense a demandé environ 1,8 milliard de dollars pour des projets d’IA pour l’exercice 2024 (et un montant similaire pour 2025) defensescoop.com, contre environ 800 millions de dollars estimés en 2020. En outre, les États-Unis dépensent des milliards dans des systèmes autonomes comme les drones, lesquels intègrent souvent de l’IA nationaldefensemagazine.org. Les principales initiatives illustrant l’approche américaine incluent :
- Unités et programmes d’IA dédiés : Le Département de la Défense a créé le Joint Artificial Intelligence Center (JAIC) en 2018 (désormais réorganisé sous le Chief Digital and AI Office) pour unifier les efforts de R&D en IA. Des programmes précurseurs comme Project Maven ont démontré la valeur de l’IA en déployant des algorithmes pour aider les analystes du renseignement au Moyen-Orient defense.gov. Le portefeuille IA de l’armée américaine compte aujourd’hui des dizaines de projets – plus de 600 initiatives financées en 2021 nationaldefensemagazine.org –, allant des outils prédictifs de maintenance aux systèmes de combat semi-autonomes.
- Third Offset Strategy et JADC2 : Stratégiquement, les États-Unis poursuivent ce que l’on appelle parfois la « troisième stratégie de compensation » (« third offset ») – recourant à l’IA et aux technologies avancées pour compenser la montée en puissance des adversaires. Un élément central est le Joint All-Domain Command and Control (JADC2), une vision de connectivité sans faille entre toutes les forces. L’IA est essentielle à JADC2, car elle doit relier en temps réel capteurs, décideurs et tireurs. Cela signifie qu’un réseau piloté par l’IA pourrait capter des données d’un satellite ou d’un drone, identifier une menace et déclencher instantanément le système d’arme approprié (chasseur, batterie d’artillerie, etc.). Des projets comme l’Advanced Battle Management System (ABMS) de l’Air Force ou le Project Convergence de l’Armée servent de bancs d’essai à ce réseau de commandement dopé à l’IA.
- Collaboration homme-machine (Manned-Unmanned Teaming) : L’armée américaine envisage les équipes homme-machine comme l’utilisation optimale de l’IA – laissant le contrôle à l’humain, mais s’appuyant sur des systèmes autonomes pour accroître l’efficacité au combat. Un exemple phare est le projet Collaborative Combat Aircraft de l’Air Force : des drones compagnons qui voleront aux côtés de chasseurs pilotés. Ces drones utiliseront l’IA pour des tâches telles que la reconnaissance, la guerre électronique, voire l’engagement contre les chasseurs ennemis de façon autonome. L’objectif est d’avoir une flotte opérationnelle de drones CCA d’ici la fin de cette décennie airforce-technology.com. L’Armée de Terre, quant à elle, mène des expérimentations pour associer les soldats à des coéquipiers robotiques – qu’il s’agisse d’un robot terrestre transportant du matériel ou d’un véhicule autonome servant d’éclaireur.
- Cadre éthique et réglementaire : Les États-Unis ont également été actifs dans la définition de lignes directrices pour l’utilisation de l’IA dans la guerre. En 2020, le Pentagone a adopté cinq principes pour une IA éthique (responsable, équitable, traçable, fiable, gouvernable) afin de guider son développement. De plus, la Directive 3000.09 du département de la Défense stipule que toute arme autonome doit permettre aux commandants d’exercer « un niveau de jugement humain approprié » sur l’usage de la force en.wikipedia.org. Cette politique – actualisée en janvier 2023 – ne va pas jusqu’à interdire les armes létales autonomes, mais impose un examen et une autorisation rigoureux pour tout système d’IA pouvant prendre des décisions de ciblage vitales. En pratique, les États-Unis gardent à ce jour un humain « dans la boucle » pour l’usage de la force létale : par exemple, les frappes de drones et les systèmes de défense antiaériens imposent une confirmation humaine. Les responsables américains insistent sur le fait que l’IA servira à augmenter le combattant humain, non à remplacer son jugement, en accord avec des préoccupations de fiabilité pratique et des valeurs démocratiques.
- Collaboration avec l’industrie et les alliés : L’industrie technologique américaine joue un rôle majeur dans la poussée militaire de l’IA. Des entreprises telles que Microsoft, Palantir et Anduril ont remporté des contrats de défense pour fournir des solutions d’IA, du cloud computing à l’analytique de champ de bataille. (Notamment, après certaines polémiques – comme le retrait de Google du Project Maven en 2018 sous la pression de ses employés – les partenariats industrie/armée se sont redéveloppés à mesure que l’importance stratégique de l’IA a été reconnue.) Les États-Unis collaborent aussi étroitement avec leurs alliés sur l’IA – via des forums comme le Joint AI Partnership au sein des Five Eyes, ainsi que les initiatives d’innovation de l’OTAN – pour garantir l’interopérabilité et des avancées collectives.
Dans l’ensemble, l’approche américaine conjugue grands investissements et mise en œuvre prudente. Les États-Unis cherchent à exploiter tout le potentiel de l’IA pour conserver la supériorité militaire, mais en prenant soin de garder le contrôle et de respecter le droit des conflits. Washington s’oppose aux interdictions internationales sur les armes autonomes, préférant développer des normes et des « bonnes pratiques ». En maintenant à la fois un avantage technologique et une position morale forte (grâce à des principes d’usage responsable), les États-Unis espèrent fixer la norme mondiale pour l’IA militaire.
Chine
La Chine a fait le pari stratégique de l’IA comme clé de sa modernisation militaire, et comme moyen de dépasser la puissance militaire américaine. L’Armée populaire de libération (APL) parle de cette transformation comme de la réalisation de la « guerre intelligentisée » – concept officiellement promu dans le livre blanc sur la défense nationale de 2019 carnegieendowment.org. Alors que « l’informatisation » (l’intégration des technologies de l’information) a guidé les réformes de l’APL par le passé, l’intelligentisation va plus loin : il s’agit d’intégrer l’IA dans tous les domaines du combat pour obtenir un avantage cognitif et opérationnel décisif.
Stratégie et investissement : Les dirigeants chinois considèrent l’IA comme prioritaire dans ses dimensions militaire, économique et géopolitique. En 2017, Pékin a lancé le New Generation AI Development Plan, qui fixe l’objectif que la Chine devienne leader mondial de l’IA à l’horizon 2030. Selon une estimation, l’industrie chinoise de l’IA valait environ 150 milliards de yuans (≈23 Mds $) en 2021 et devrait dépasser 400 milliards de yuans (55 Mds $) d’ici 2025 armyupress.army.mil (ceci incluant l’IA civile également). Les dépenses militaires spécifiques en IA sont difficiles à chiffrer, les budgets chinois manquant de transparence. Cependant, une étude de 2022 du CSET de Georgetown estime que l’APL consacre probablement « quelques milliards » de dollars par an à l’IA – un niveau comparable aux États-Unis nationaldefensemagazine.org. Ce financement est réparti entre l’achat de systèmes équipés d’IA et une R&D significative dans les laboratoires de défense et entreprises privées (sous la politique de fusion civil-militaire chinoise). La Chine peut compter sur son secteur technologique privé dynamique – des entreprises comme Baidu, Alibaba, Tencent, iFlytek – qui figurent à la pointe de la recherche IA et peuvent adapter des innovations duales aux besoins militaires.
Axes prioritaires : L’APL poursuit activement les applications de l’IA là où elle y voit un multiplicateur de puissance face à des adversaires plus avancés (notamment les États-Unis). D’après les recherches, la Chine met l’accent sur l’IA pour l’analyse du renseignement, la maintenance prédictive, la guerre informationnelle, la navigation et la reconnaissance de cibles nationaldefensemagazine.org. Concrètement :
- L’APL développe des outils d’IA destinés à trier des données de reconnaissance (imagerie satellite, communications interceptées) afin d’identifier des cibles et des schémas plus rapidement que les analystes humains.
- En maintenance et logistique, des unités chinoises utilisent l’IA pour prédire les pannes d’équipements et gérer les chaînes d’approvisionnement – crucial pour une armée qui ambitionne de projeter ses forces loin de son territoire.
- Véhicules et drones autonomes : il s’agit d’un axe majeur. La Chine a dévoilé de nombreux drones autonomes ou semi-autonomes : des drones furtifs de haut niveau (Sharp Sword UCAV) aux micro-drones en essaim. En 2020, un drone compagnon (FH-97) similaire au Skyborg américain a été présenté, et en 2022 des chercheurs chinois ont revendiqué un record mondial avec un essaim de 10 drones franchissant un parcours d’obstacles complexe à l’aide de l’IA – signalant une avancée dans la technologie de l’essaim. La Force des missiles de l’APL explore également l’IA pour améliorer la détection et le guidage des missiles.
- Armes létales autonomes : Les responsables chinois restent ambigus dans les forums internationaux sur l’interdiction des armes autonomes, et des indices suggèrent que la Chine développe de tels systèmes. Les chercheurs de l’APL travaillent sur la reconnaissance de cibles et la conduite de tir basées sur l’IA pour des armes qui pourraient à terme engager des cibles sans intervention humaine nationaldefensemagazine.org. Par exemple, la Chine a commercialisé à l’exportation des véhicules robots armés pilotés par IA (comme le drone-hélicoptère Blowfish A2). Pékin déclare cependant souvent souhaiter un accord mondial bannissant l’emploi d’armes entièrement autonomes – une posture jugée tactique par certains analystes, alors même que ses propres R&D se poursuivent.
- Automatisation du commandement : En accord avec la « guerre intelligentisée », l’APL expérimente l’IA pour la planification et la prise de décision opérationnelle. De récentes publications chinoises discutent d’algorithmes d’IA pour la planification de guerre et le commandement opérationnel lors de simulations. L’APL a construit des laboratoires de bataille où des IA simulent des campagnes d’invasion de Taïwan et proposent des stratégies. Rien n’indique que la Chine confierait aujourd’hui un vrai commandement à une IA, mais l’objectif affiché est de réduire au maximum l’impact des limites humaines dans le cycle décisionnel.
Fusion civilo-militaire et « avantage techno-autoritaire » : L’armée chinoise bénéficie d’une frontière très poreuse entre technologies civiles et défense. Par la fusion civilo-militaire, les progrès en reconnaissance faciale, big data de surveillance, IA financière peuvent être adaptés à un usage militaire. Par exemple, les systèmes de surveillance de masse employés pour la sécurité intérieure (caméras omniprésentes avec reconnaissance faciale, surveillance des réseaux sociaux) génèrent une expertise en analytics de données et vision par ordinateur qui bénéficient au renseignement militaire et à la cyber-guerre. D’ailleurs, la Chine est accusée d’utiliser l’IA pour des opérations de piratage et d’influence : un rapport de Microsoft en 2023 signale des campagnes d’influence chinoises utilisant des images et vidéos générées par IA pour influer sur les opinions sur les plateformes occidentales armyupress.army.mil armyupress.army.mil. Cette capacité à exploiter l’IA aussi bien pour la puissance dure que la puissance douce – des drones autonomes à la propagande deepfake – est caractéristique de l’approche chinoise.
Posture globale et éthique : À l’international, la Chine se positionne dans une certaine mesure comme partisane du contrôle des armements en matière d’IA. Elle a appelé à interdire l’utilisation d’armes autonomes contre les civils et à un usage “responsable” de l’IA. Cependant, la Chine n’a pas rejoint ceux qui militent pour une interdiction totale des armes létales autonomes ; elle souhaite probablement garder la liberté de développer une technologie militaire fondée sur l’IA tout en évitant la réprobation internationale. Les déclarations chinoises insistent généralement sur le fait qu’il doit toujours y avoir un contrôle humain à un certain niveau, mais les officiels chinois arguent aussi qu’interdire certaines technologies pourrait freiner les progrès. En pratique, les avancées militaires de la Chine suggèrent qu’elle déploiera l’IA dès qu’elle estimera ses systèmes suffisamment fiables, en particulier dans un scénario de conflit où cela pourrait lui conférer un avantage. Par exemple, des rapports font état de tests de drones et de robots terrestres autonomes chinois lors d’accrochages frontaliers (notamment avec l’Inde au Tibet, utilisant des véhicules robotiques pour la logistique en haute altitude).
En résumé, l’approche de la Chine est centralisée et d’une ambition globale : intégrer l’IA dans l’ensemble de l’APL pour améliorer aussi bien la logistique que la frappe létale, exploiter l’innovation technologique civile et viser à égaler ou surpasser les capacités américaines dans le calendrier de 2030. Le rythme rapide des progrès militaires chinois – et leur volonté d’expérimenter audacieusement de nouveaux concepts comme les attaques de type essaim – explique pourquoi la Chine est considérée par beaucoup comme la principale rivale dans la “course à l’armement en IA”. L’objectif ultime de Pékin est d’obtenir un avantage stratégique : la capacité de dissuader ou de gagner des conflits en prenant l’ascendant par la réflexion, la manœuvre et la résilience grâce à des forces dopées à l’IA.
Russie
La Russie voit l’IA militaire à la fois comme une opportunité de réduire l’écart avec les armées occidentales et comme une nécessité née des leçons récentes du champ de bataille. Malgré des défis économiques et un secteur technologique plus réduit que ceux des États-Unis ou de la Chine, les dirigeants russes – dont le président Poutine – ont clairement souligné l’importance existentielle de ne pas se laisser distancer en matière d’IA rusi.org. La stratégie de Moscou est donc d’investir de façon sélective dans des capacités d’IA qui correspondent à ses forces ou à ses besoins urgents, même si le pays doit composer avec des sanctions et des ressources limitées.
Axes stratégiques et doctrine : La doctrine militaire russe a toujours accordé de la valeur aux solutions asymétriques et technologiques pour compenser les faiblesses conventionnelles. Avec l’IA, la Russie entrevoit une « capacité de saut qualitatif ». La stratégie nationale sur l’IA du Kremlin (publiée en 2019) et d’autres documents politiques plus récents identifient la défense comme un secteur clé pour le développement de l’IA. En 2024, la Russie a dévoilé un nouveau plan d’armement d’État sur 10 ans qui, pour la première fois, intègre une section dédiée à l’intelligence artificielle – signal d’un engagement au plus haut niveau pour déployer des armes autonomes et systèmes dopés à l’IA defensenews.com. Cette dynamique est en partie stimulée par la guerre en Ukraine en cours : ce conflit est devenu une sorte de “laboratoire de guerre IA”, où les deux camps recourent massivement aux drones et à la guerre électronique defensenews.com. Remise en cause par ses déconvenues, la réflexion militaire russe réclame une accélération de l’IA pour moderniser ses forces.
Principaux programmes et développements IA : Les efforts russes en IA, bien que moins bien financés que ceux des États-Unis ou de la Chine, se distinguent dans plusieurs domaines :
- Systèmes autonomes et non-habités : L’industrie russe a développé une série de véhicules terrestres non habités (UGVs) – par exemple, le robot armé Uran-9, l’UGV Marker – avec des expérimentations en Syrie et en Ukraine. Les résultats ont été mitigés (Uran-9 a rencontré de nombreux problèmes en Syrie), mais les améliorations se poursuivent. La guerre en Ukraine a vu la Russie déployer des munitions rôdeuses (essentiellement des drones kamikazes) et divers drones de reconnaissance. Certains, comme le drone rôdeur Lancet, auraient la capacité de sélectionner des cibles de manière semi-autonome (par exemple, en reconnaissant les signaux radar ou le type de véhicule). La Russie investit aussi dans les drones sous-marins pour sa marine et dans l’IA pour des plateformes existantes (comme des modes autonomes supposés pour le char T-14 Armata).
- Systèmes de missiles et défense aérienne : L’armée russe a une longue tradition d’automatisation des systèmes stratégiques – par exemple, le système de riposte nucléaire “Périmètre” (Main Morte) de l’époque soviétique comportait déjà des algorithmes décisionnels automatisés defensenews.com. Sur cette base, la Russie intègre l’IA dans de nouveaux systèmes. Ainsi, pour le système de défense aérienne S-500, un module de commande doté d’IA est en développement pour évaluer les menaces et prédire la trajectoire des missiles entrants defensenews.com. Les experts russes notent que l’IA peut grandement aider les systèmes à haute vitesse (comme l’anti-missile ou la guerre électronique) pour lesquels le temps de réaction est trop court pour un humain defensenews.com. De même, la reconnaissance basée sur l’IA est recherchée pour le contrôle de tir des chars et de l’artillerie, ce qui pourrait améliorer la précision et la réactivité.
- Modernisation de l’arsenal existant : Plutôt que de concevoir des armes IA entièrement nouvelles dès le départ, la Russie pratique souvent la réintégration de l’IA dans des plateformes éprouvées. Par exemple, des responsables ont évoqué l’ajout de navigation autonome et de reconnaissance de cibles sur d’anciens blindés, ou la conversion de véhicules en version télé-opérée pour des missions risquées (comme la livraison de ravitaillements sous le feu). En Ukraine, les troupes russes reçoivent des mises à jour logicielles incluant des fonctions d’IA, telles que le suivi de cible automatique sur certaines optiques et des tourelles télécommandées sur des blindés revenant de réparation defensenews.com. Cette approche incrémentale permet à la Russie de déployer plus tôt, et à moindre coût, certaines capacités IA – mais avec moins d’ambition qu’avec des armes conçues dès l’origine pour l’IA.
- Pôle recherche et industrie : Le gouvernement russe oriente la R&D IA via ses conglomérats publics de défense et de nouvelles initiatives. Rostec, le mastodonte industriel de défense, a fondé un laboratoire d’intelligence artificielle en 2022 pour la recherche appliquée au domaine militaire defensenews.com. Le gouvernement a aussi créé la Technopole d’innovation militaire “Era”, un campus de recherche sur la mer Noire où de jeunes ingénieurs et scientifiques travaillent sur des startups du secteur défense, notamment en IA. Malgré ces efforts, la Russie fait face à plusieurs obstacles : pénurie de microélectronique avancée (aggravée par les sanctions sur les semi-conducteurs), fuite des cerveaux du numérique et un écosystème de startups moins dynamique. Pour compenser, la Russie tente d’exploiter la tech civile – par exemple, Sberbank (la plus grande banque du pays) possède un important département de recherche en IA, et son PDG vante le potentiel de l’IA pour booster à la fois le PIB russe et son armée rusi.org. Cela rappelle, à plus petite échelle, la synergie civil-militaire observée en Chine.
- Sur le champ de bataille – leçons ukrainiennes : La guerre en cours a servi de laboratoire de test, forçant la Russie à s’adapter. Les forces ukrainiennes – aidées par les renseignements et la technologie occidentale – ont utilisé des outils dopés à l’IA (cartographie satellitaire assistée pour le ciblage de l’artillerie, par exemple). En réponse, les unités russes apprennent à brouiller ou tromper la surveillance IA et à déployer des munitions rôdeuses plus autonomes pour viser l’artillerie ukrainienne. Le niveau élevé de pertes humaines et matérielles en Ukraine a d’ailleurs souligné pour la Russie l’intérêt stratégique des systèmes autonomes, qui permettraient de réduire la dépendance vis-à-vis des soldats. La littérature militaire russe cite fréquemment l’usage de l’IA pour limiter l’exposition du personnel – convoyages logistiques autonomes pour le ravitaillement sous le feu, ou robots pour évacuer les blessés defensenews.com. On peut s’attendre à ce que la Russie privilégie les applications qui soulagent immédiatement ses difficultés militaires (drones, guerre électronique, automatisation de la défense d’actifs clés) dans sa phase de reconstruction.
Éthique et politique : La Russie s’oppose en général à une interdiction préventive des armes létales autonomes dans les discussions internationales, s’alignant sur les positions des États-Unis et de la Chine, hostiles à toute interdiction stricte. Les officiels russes insistent sur le fait que le droit international existant est suffisant et qu’“un humain doit rester responsable”, mais ils refusent tout accord qui limiterait le développement de nouvelles armes. En pratique, la Russie semble prête à déployer des systèmes à autonomie croissante dès lors qu’ils servent une utilité tactique. Par exemple, il n’a pas été officiellement confirmé qu’un drone russe rôdeur aurait mené une frappe entièrement autonome, mais la Russie n’hésiterait probablement pas à le faire si cela s’avérait efficace. Sur le plan intérieur, le régime de Poutine présente l’IA comme un enjeu vital pour la survie nationale – Poutine a même comparé l’importance de l’IA à celle de l’invention de l’arme nucléaire rusi.org. Cette rhétorique suggère que la Russie juge inacceptable tout retard dans l’IA. Ceci dit, la culture militaire russe demeure conservatrice et très hiérarchisée ; il pourrait donc exister une forme de résistance interne vis-à-vis de la confiance dans les systèmes IA. L’adoption lente de concepts avancés (comme la guerre réseau-centrée) par le passé laisse supposer que l’intégration généralisée de l’IA sera un défi.
En résumé, l’approche de la Russie en matière d’IA militaire est opportuniste et ciblée. Elle vise à intégrer l’IA dans des domaines critiques – drones, missiles, guerre électronique – afin d’accroître son efficacité, notamment face à l’OTAN. La guerre en Ukraine accélère ces efforts par nécessité. Malgré des contraintes économiques et technologiques, la Russie est résolue à rester dans la course à l’IA. Reste à voir si cela débouchera sur quelques armes décisives ou sur une transformation plus large, mais Moscou est déterminée à ne pas être laissée pour compte à l’ère de la guerre autonome.
L’OTAN et les nations alliées
L’OTAN et ses États membres reconnaissent collectivement que l’IA sera déterminante pour la défense du futur, et ils œuvrent ensemble et individuellement à intégrer l’IA d’une manière conforme à leurs valeurs. Contrairement à un pays seul, le rôle de l’OTAN est de coordonner et guider l’emploi de l’IA afin que les armées alliées restent interopérables et à la pointe de la technologie. Voici comment l’OTAN et ses principaux alliés relèvent le défi de l’IA militaire :
Stratégie IA de l’OTAN : En octobre 2021, l’OTAN a publié sa toute première stratégie en matière d’intelligence artificielle, signalant l’engagement de l’Alliance à adopter et sécuriser l’IA en défense armyupress.army.mil. Cette stratégie a posé les Principes d’utilisation responsable de l’IA dans le contexte militaire – incluant légalité, responsabilité et redevabilité, explicabilité et traçabilité, fiabilité et gouvernance. Ces principes reprennent ceux de nations majeures comme les États-Unis et visent à garantir que, lors du déploiement de l’IA par les alliés, cela se fasse en accord avec le droit international et les normes éthiques. Lors du sommet de l’OTAN de 2022, les dirigeants alliés ont aussi établi un fonds d’innovation OTAN de un milliard d’euros pour investir dans les technologies émergentes à double usage (l’IA étant une cible prioritaire). En juillet 2024, l’OTAN avait déjà mis à jour sa stratégie IA pour accentuer la sécurité et l’interopérabilité de l’IA, reflétant l’évolution rapide du paysage technologique armyupress.army.mil. L’OTAN est claire : elle doit suivre le rythme des adversaires en matière d’IA – le Secrétaire général Jens Stoltenberg a souligné qu’échouer à le faire mettrait en péril le principe fondamental de défense collective de l’OTAN.
Collaboration entre alliés – DIANA : Une initiative phare de l’OTAN est l’Accélérateur d’Innovation de Défense pour l’Atlantique Nord (DIANA). Lancé en 2023, DIANA est un réseau liant les gouvernements, le secteur privé et les pôles universitaires d’innovation dans les pays de l’OTAN pour accélérer le développement de technologies émergentes, dont l’IA armyupress.army.mil armyupress.army.mil. DIANA organise des programmes « challenge » où startups et chercheurs s’attaquent à des problèmes de défense spécifiques (par exemple, résilience énergétique, communications sécurisées, surveillance) – beaucoup impliquent l’IA ou des systèmes autonomes armyupress.army.mil. En donnant accès à des centres de test OTAN et à des financements, DIANA vise à produire des solutions de pointe dont tous les alliés pourront bénéficier. L’OTAN tente ainsi de tirer parti des écosystèmes d’innovation combinés de 31 nations pour rivaliser avec les efforts centralisés massifs d’adversaires comme la Chine. Par ailleurs, l’OTAN a créé des centres d’excellence et des groupes spécialisés sur l’IA, les données et la cyberdéfense pour partager les meilleures pratiques entre militaires.
Initiatives majeures des États membres : Au sein de l’OTAN, des pays leaders comme le Royaume-Uni, la France et l’Allemagne développent leurs propres programmes d’IA militaire :
- Le Royaume-Uni a publié une stratégie IA Défense en 2022 et a créé une “Unité IA et Autonomie Défense” pour favoriser l’adoption. Le Royaume-Uni investit dans des projets comme iLauncher (IA pour la reconnaissance de cibles sur armes d’infanterie) et a testé des véhicules logistiques autonomes. Les forces britanniques ont aussi expérimenté l’usage d’essaims (notamment un test avec 20 drones contrôlés par un seul opérateur). Le Ministère de la Défense britannique a dépensé 2,1 milliards £ en R&D en 2022-23 dans la robotique, les systèmes autonomes et l’IA post.parliament.uk, témoignant d’un fort engagement envers les technologies émergentes.
- La France dispose d’un solide programme IA, son ministère de la Défense finançant la recherche en IA dans la surveillance, la maintenance prédictive et la planification des missions. La France prône une approche de “soldats augmentés” – gardant l’humain au centre des opérations tout en l’équipant d’outils IA. Par exemple, les chasseurs Rafale reçoivent des améliorations IA pour l’identification des menaces, et l’armée utilise l’IA pour traiter les flux de drones lors des opérations anti-terroristes dans la région du Sahel en Afrique.
- L’Allemagne investit dans l’IA pour la fusion de données dans ses systèmes de commandement et reste prudente vis-à-vis des armes autonomes, fidèle à une éthique de contrôle humain significatif. L’Allemagne co-dirige, avec les Pays-Bas, un projet sur les tests et l’évaluation de l’IA au sein de l’OTAN afin de garantir la fiabilité des systèmes.
- Les plus petits pays de l’OTAN apportent aussi leur expertise de niche – par exemple, l’Estonie excelle en robotique militaire et a déployé des robots terrestres autonomes lors d’exercices ; les Pays-Bas hébergent des recherches sur l’IA pour le maintien de la paix et les missions de l’ONU ; le Canada explore l’IA pour la surveillance de l’Arctique.
Interopérabilité et partage des données : Le défi (et l’avantage) de l’OTAN est de coordonner de nombreux pays. Un point clé des efforts de l’OTAN est d’assurer l’interopérabilité – que les systèmes intelligents des différents alliés fonctionnent ensemble sans friction. Cela implique de s’accorder sur les standards de données, les protocoles de communication et même le partage de jeux de données pour l’apprentissage automatique. Les bases fédérées de l’OTAN et les exercices multinationaux y contribuent. Par exemple, les forces aériennes alliées peuvent mutualiser les données radar pour améliorer les algorithmes distinguant drones et oiseaux, ou les services de renseignement OTAN peuvent composer un jeu de données d’images pour entraîner l’IA de reconnaissance de cibles. En mutualisant données et ressources, les alliés espèrent surpasser collectivement tout adversaire isolé dans le domaine de l’IA.
Leadership éthique : L’OTAN se positionne en chef de file normatif sur l’éthique de l’IA militaire. Lors des forums OTAN, les responsables insistent régulièrement sur le respect du droit international et des valeurs démocratiques, qui distinguent les alliés des adversaires autoritaires. En octobre 2021, conjointement à sa stratégie IA, l’OTAN a affirmé que tout emploi de l’IA dans la guerre devait être gouvernable et traçable, c’est-à-dire qu’un commandant humain puisse désactiver ou outrepasser une décision d’IA, et que les décisions de l’IA soient auditées armyupress.army.mil. L’OTAN a clairement stipulé que toutes les applications de l’IA en temps de guerre par les alliés impliqueraient une responsabilité humaine. Cette position vise à rassurer le public et la communauté internationale sur le contrôle des IA alliées et à favoriser la confiance entre alliés dans leurs propres systèmes. (Il serait fâcheux, par exemple, qu’un allié doute de la sécurité de l’IA d’un autre pendant des opérations intégrées de défense antimissile…)
La guerre de la Russie en Ukraine – accélérateur pour l’OTAN : La guerre en Ukraine a fortement accru l’urgence de l’OTAN sur l’IA. L’Ukraine, bien que non membre de l’OTAN, a reçu des technologies occidentales et prouvé que de petits drones, des liaisons satellites et des analyses IA (pour la désignation de cibles ou la priorisation des réparations) peuvent contrer un adversaire plus puissant. Les militaires de l’OTAN ont observé l’emploi par la Russie de drones kamikazes iraniens et de dispositifs de brouillage IA – un signal d’alerte que la menace IA est déjà là. Cela a accéléré des programmes comme le Fonds d’Innovation de l’OTAN et probablement incité des projets classifiés sur la lutte contre les armes autonomes (par exemple, des systèmes de détection et de neutralisation de drones, ou de protection des blindés contre des munitions IA frappant par le dessus). L’aide de l’OTAN à l’Ukraine sert aussi parfois de terrain d’essai pour des technologies occidentales – certains systèmes anti-drones basés sur l’IA livrés à l’Ukraine sont en cours d’évaluation pour un usage élargi.
En conclusion, l’OTAN et ses alliés abordent l’IA avec enthousiasme mais aussi précaution. Ils sont résolus à ne pas laisser à leurs rivaux l’avantage technologique, d’où la multiplication d’investissements et de projets communs pour stimuler l’innovation. En même temps, ils s’attachent à insuffler les valeurs OTAN dans l’usage de l’IA – maintien de la responsabilité humaine, respect du droit, lutte contre les usages détournés. Le cadre collectif de l’OTAN pourrait, s’il réussit, inspirer des normes internationales sur l’IA militaire. La capacité de l’Alliance à unir les efforts de nombreux pays pourrait aussi être un atout pour surpasser des compétiteurs plus centralisés. Les prochaines années diront si la coordination démocratique peut dépasser la performance de programmes militaires d’IA plus centralisés et dirigés unilatéralement.
Enjeux éthiques, juridiques et politiques
L’avènement de l’IA et de l’autonomie dans la guerre soulève de profonds enjeux éthiques et juridiques. Comment garantir que des machines prenant des décisions de vie ou de mort respectent les valeurs humaines et le droit international ? Qui est responsable si un système autonome commet une erreur ? Ces interrogations suscitent un débat intense parmi décideurs, militants et chefs militaires. Voici quelques-uns des principaux enjeux éthiques, juridiques et politiques entourant l’IA militaire :
- Armes létales autonomes (LAWS) – Débat sur les “robots tueurs” : La controverse la plus urgente concerne peut-être les armes qui pourraient sélectionner et engager des cibles sans intervention humaine. Des groupes de la société civile et de nombreux pays avertissent qu’il est inacceptable de déléguer des décisions létales à des algorithmes. En 2019, 30 pays avaient appelé à une interdiction préventive des armes létales autonomes pour des raisons éthiques post.parliament.uk. Cela n’incluait pas les grandes puissances comme les États-Unis, la Russie ou la Chine, qui s’opposent à une interdiction. Les débats aux Nations Unies se sont largement tenus dans le cadre de la Convention sur certaines armes classiques (CCAC), où un groupe d’experts gouvernementaux discute des LAWS depuis 2014. Le point central est la nécessité d’un « contrôle humain significatif » sur toute arme capable de recourir à une force létale carnegieendowment.org. Concrètement, même si une arme utilise l’IA pour identifier ou suivre des cibles, beaucoup estiment qu’un humain doit toujours délibérer et confirmer l’attaque. Les avis divergent entre nations : par exemple, le Parlement européen et le Secrétaire général de l’ONU ont demandé des interdictions totales, tandis que les États-Unis et la Russie préfèrent des codes de conduite non contraignants. En 2025, il n’existe aucun traité international régulant spécifiquement les armes autonomes, mais l’élan s’amplifie pour établir certaines normes. Fin 2023, un événement marquant a eu lieu avec le dépôt d’une première résolution sur les armes autonomes à l’Assemblée générale de l’ONU, accompagné d’un appel commun du Secrétaire général de l’ONU et du Comité international de la Croix-Rouge pour que les États négocient un traité d’ici 2026 autonomousweapons.org.
- Responsabilité et conformité au droit international : L’imprévisibilité et la complexité de l’IA font de la responsabilité une préoccupation majeure. Selon les lois de la guerre (droit international humanitaire), les parties doivent distinguer les civils des cibles militaires et utiliser une force proportionnée. Un système autonome peut-il respecter de manière fiable ces principes ? De nombreux experts et responsables s’inquiètent du fait que l’IA actuelle ne puisse pas saisir complètement le contexte ou les nuances – augmentant le risque de dommages illicites. Si un drone guidé par l’IA frappe un civil en pensant qu’il s’agissait d’un combattant, qui est responsable ? Est-ce le commandant qui l’a déployé, le développeur qui l’a programmé, ou la machine elle-même (qui n’a pas d’existence juridique) ? Ces questions restent sans réponse. Ce qui est certain, c’est que les armées ne peuvent pas échapper à leur responsabilité en blâmant l’algorithme ; les doctrines de responsabilité du commandement continueront très probablement de s’appliquer. Pour limiter les problèmes, certaines armées (comme les États-Unis, l’OTAN) exigent des tests rigoureux et des mécanismes de reprise de contrôle humain dans les systèmes d’IA. Néanmoins, la possibilité de décisions de l’IA en « boîte noire » reste problématique – certains réseaux neuronaux avancés sont si complexes que même leurs créateurs ne peuvent expliquer une décision précise. Ce manque de transparence complique les examens juridiques et la confiance sur le champ de bataille. Le respect du DIH reste aussi un point de tension : lors des réunions de l’ONU, de nombreux États affirment que sans jugement humain, une arme totalement autonome pourrait ne pas distinguer efficacement les civils ou définir la proportionnalité d’une attaque post.parliament.uk. Les partisans rétorquent que des IA bien conçues pourraient être plus précises et réduire les dommages collatéraux. Pour l’instant, il n’y a pas de consensus, et donc les militaires avancent prudemment, gardant les humains dans (ou sur) la boucle pour les décisions létales tant qu’ils ne sont pas convaincus que l’IA puisse parfaitement se conformer à la loi.
- Efforts de gouvernance émergents : En l’absence de traité dédié, divers efforts de gouvernance plus souples sont en cours. Les discussions CCAC de l’ONU ont abouti à des principes directeurs non contraignants (par exemple, affirmant que le DIH s’applique pleinement aux armes autonomes et que les humains restent responsables). Cependant, les progrès y sont lents – d’où l’émergence de forums alternatifs. Notamment, une coalition d’ONG (Campagne pour interdire les robots tueurs) et des pays sympathisants poussent à un traité autonome hors cadre onusien si nécessaire. En février 2023, une conférence au Costa Rica a réuni des États d’Amérique latine et des Caraïbes pour déclarer leur soutien à un instrument juridique sur les armes autonomes autonomousweapons.org. Le CICR (gardien du DIH) a, en 2021, publié des recommandations : il préconise de prohiber les systèmes autonomes qui ciblent des humains ou sont imprévisibles, et de réguler les autres en exigeant un contrôle humain autonomousweapons.org autonomousweapons.org. Régionalement, l’UE a pris des mesures – bien que son règlement phare sur l’IA (le premier du genre) exclue les applications militaires, le Parlement européen réclame à plusieurs reprises des règles mondiales pour les « robots tueurs » carnegieendowment.org. Une autre idée gagne du terrain : une agence de surveillance équivalente à l’Agence internationale de l’énergie atomique mais pour l’IA – une « AIEA de l’IA ». Même le PDG d’OpenAI a lancé cette idée à la mi-2023 carnegieendowment.org. Cependant, beaucoup reconnaissent que l’IA est fondamentalement différente du nucléaire : elle est à double usage, largement distribuée, et évolue très vite carnegieendowment.org, rendant un régime classique de contrôle des armements difficile à appliquer. Malgré tout, le fait que certains dirigeants considèrent l’IA comme une technologie potentiellement au « niveau d’extinction » carnegieendowment.org pousse à des discussions sérieuses sur une forme de gouvernance internationale, qu’il s’agisse de traité formel ou de normes informelles. Le paysage pourrait changer rapidement en cas, par exemple, d’incident majeur impliquant une arme autonome – ce qui entraînerait fort probablement des appels urgents à l’action.
- Autorégulation militaire et industrielle : En parallèle de la diplomatie internationale, on assiste à une poussée pour des politiques internes de gestion des risques liés à l’IA. Comme évoqué, le Département de la Défense américain a mis à jour sa directive sur l’autonomie dans les armes (3000.09) en 2023, réaffirmant essentiellement que les systèmes autonomes doivent permettre un jugement humain et définissant les procédures d’approbation en.wikipedia.org. Les principes de l’OTAN pour une IA responsable orientent les forces alliées. Des pays comme la France et le Royaume-Uni ont publiquement promis de conserver un humain dans la boucle pour les décisions d’usage de la force létale (la ministre française des armées a déclaré en 2019 que la France « refuse de confier la décision de vie ou de mort à une machine qui agirait de façon totalement autonome »). Ces garanties visent à trouver l’équilibre : développer des armes IA, mais pas sans contrôle. Côté industriel, les grands acteurs technologiques affichent leurs propres lignes directrices éthiques IA et ont parfois exprimé des réserves sur les applications militaires. Cependant, un changement s’opère : en janvier 2024, OpenAI (créateur de ChatGPT) a discrètement abrogé une politique qui interdisait l’utilisation de sa technologie pour les « armes ou la guerre ». Cette restriction générale a été retirée, affichant une volonté nouvelle d’accepter des contrats militaires carnegieendowment.org. Cela reflète une dynamique plus large – des entreprises comme Microsoft et Google proclament des principes IA mais collaborent de plus en plus avec la défense (ex : système HoloLens pour l’armée par Microsoft, petits contrats d’IA cloud pour le Pentagone chez Google). Beaucoup justifient leur engagement en affirmant qu’ils aideront à garantir un usage responsable de l’IA par l’armée et que les démocraties occidentales doivent avoir la meilleure technologie. L’équilibre éthique pour l’industrie est de s’assurer que leur IA n’est pas détournée ou source de dommages civils – certains y répondent en intégrant dans les contrats des clauses de supervision humaine, ou en refusant certains projets à haut risque. Pourtant, la frontière entre IA civile et militaire est poreuse, et les enjeux du double usage demeurent. Un algorithme de reconnaissance faciale conçu pour le commerce de détail peut être adapté à la désignation de cibles ; une IA de voiture autonome peut servir pour un véhicule militaire sans pilote. C’est pourquoi même certains patrons de la tech plaident pour des standards globaux ou au moins des “lignes rouges” (ex : interdiction totale d’IA pour lancement nucléaire autonome).
- Risque de prolifération et de mauvaise utilisation : Éthiquement, il existe également une inquiétude sur qui aura accès à ces capacités d’IA avancées. Si les États-Unis, la Chine et la Russie développent des armes IA, la technologie pourrait fatalement se diffuser vers des régimes moins responsables ou des acteurs non étatiques (terroristes, groupes insurgés). Un drone autonome rudimentaire ou un logiciel létal d’IA peut être copié et utilisé sans respect du droit des conflits. Cet argument est avancé par ceux qui souhaitent des régulations préventives – pour éviter un far west des armes IA. Déjà, on a vu un exemple en Libye en 2020 où un drone Kargu-2 (fabriqué en Turquie) aurait traqué de façon autonome des combattants en retraite autonomousweapons.org. Si cela est confirmé, cet incident montre que même des puissances intermédiaires ou des groupes proxies pourraient utiliser la force létale autonome. Le dilemme éthique et sécuritaire est que dès qu’un État utilise de tels systèmes, les autres se sentent obligés de les suivre sous peine de désavantage. C’est une dynamique classique de course aux armements, mais accélérée. Le potentiel de l’IA à abaisser le seuil d’entrée en conflit est réel : les dirigeants pourraient être plus enclins à initier des hostilités si leurs soldats ne sont pas exposés, et si l’IA s’occupe de la partie sale. Cela soulève de profondes questions morales sur la nature de la guerre et de la paix – si la guerre devient « plus facile » (coût humain réduit pour l’agresseur), pourrait-elle devenir plus fréquente ? Les voix humanitaires internationales mettent en garde : il faut absolument éviter de retirer la conscience humaine des décisions de faire la guerre.
En résumé, le monde se débat pour savoir comment contrôler et limiter l’IA militaire afin d’en récolter les bénéfices sans sacrifier l’éthique et la stabilité. Aucun cadre unique n’a encore fait consensus, mais la conversation s’intensifie. Elle englobe des mesures techniques (comme des sécurités intégrées et des protocoles de test), des principes normatifs (comme l’obligation d’un contrôle humain) et des instruments juridiques (politiques nationales et peut-être traités). Les prochaines années – jusqu’à 2030 – pourraient être décisives pour fixer les règles du jeu concernant l’IA dans la guerre. Bien réguler est crucial, car cela pourrait faire la différence entre une IA qui sauve des vies en réduisant les dommages collatéraux et une IA qui ôte des vies avec une efficacité inhumaine. Le défi pour la communauté internationale est de s’assurer que l’humanité reste maître de l’usage de la force létale, même à mesure que les machines deviennent toujours plus capables.
Avantages et risques de l’IA militaire
L’intelligence artificielle offre sans aucun doute d’importants avantages aux opérations militaires – mais elle s’accompagne également de risques significatifs. Voici un aperçu des bénéfices majeurs que l’IA apporte à la défense, ainsi que des dangers et conséquences imprévues correspondants qu’il faudra gérer.
Principaux avantages de l’IA pour l’armée et la défense :
- Vitesse et précision accrues de la prise de décision : L’IA peut analyser les données du champ de bataille et présenter des options bien plus rapidement que des opérateurs humains, accélérant ainsi la boucle OODA (observer–s’orienter–décider–agir). Cette rapidité procure un avantage crucial. Comme l’a noté la secrétaire adjointe à la Défense des États-Unis, Kathleen Hicks, l’intégration de l’IA permet aux commandants de prendre des décisions avec plus de rapidité et de précision, offrant un « avantage décisionnel » sur les adversaires defense.gov. Par exemple, un système de commandement piloté par IA peut fusionner les entrées de dizaines de capteurs et recommander la manœuvre défensive optimale en quelques secondes après la détection d’un missile entrant, une vitesse de réaction impossible pour des humains non assistés.
- Effet multiplicateur et efficacité opérationnelle : L’IA permet de faire plus avec moins. Les systèmes autonomes peuvent fonctionner en continu sans fatigue, réaliser des tâches répétitives ou dangereuses, et couvrir de vastes zones (aériennes, maritimes ou terrestres) avec moins de personnel. Cela peut accroître considérablement l’efficacité opérationnelle. Des tâches comme la surveillance aérienne constante ou le transport logistique répétitif, qui mobiliseraient beaucoup de troupes, peuvent être prises en charge par des drones et véhicules pilotés par IA. L’IA optimise aussi l’allocation des ressources – depuis les plannings de maintenance jusqu’au déploiement des troupes – limitant le gaspillage. Une étude de la logistique militaire américaine a montré que l’application de l’IA à la gestion de la chaîne d’approvisionnement pouvait améliorer l’efficacité de plus de 20%, accélérant la livraison de pièces détachées et prévenant des problèmes de maintenance army.mil army.mil.
- Réduction des risques pour les soldats : L’un des aspects les plus humains de l’IA militaire est sa capacité à retirer l’homme des rôles les plus dangereux. Les systèmes sans équipage peuvent repérer des embuscades, déminer ou absorber les tirs ennemis à la place des soldats. Dans des environnements à haut risque (zones contaminées nucléaires, par exemple), les robots peuvent effectuer la reconnaissance là où l’envoi de troupes serait mortel. Même en combat, utiliser des systèmes autonomes ou téléopérés pour les « 3 D » (tâches ennuyeuses, sales ou dangereuses) peut sauver des vies. Un objectif bien connu est d’avoir le « premier à franchir la porte » lors d’un assaut qui soit un robot, pas un soldat. De même, l’évacuation des blessés ou le ravitaillement sous le feu pourraient être effectués par des véhicules autonomes, épargnant aux médecins et chauffeurs une exposition inutile. À terme, à mesure que l’IA progresse, des missions entières (frappe dangereuse, chasse au sous-marin, etc.) pourraient être confiées à des unités non-habitées, signifiant moins de pertes humaines.
- Rentabilité et capacité à grande échelle : Bien que les systèmes avancés d’IA impliquent des coûts initiaux, de nombreuses plateformes (notamment les petits drones et les logiciels) sont relativement peu chères et hautement déployables à grande échelle. Cela offre un avantage asymétrique sur le plan des coûts. Par exemple, dans les conflits récents, on a vu de très petits drones détruire du matériel beaucoup plus onéreux – un drone commercial à 2 000 $ neutralisant un système de défense aérienne à 2 millions armyupress.army.mil. Des essaims de drones autonomes bon marché pourraient saturer des défenses sophistiquées par le nombre. Si l’armée peut déployer 100 drones IA au prix d’un seul chasseur, le ratio de coût favorise l’approche IA. L’automatisation permet aussi de réduire les coûts humains (un opérateur peut superviser une flotte de 10 robots). L’entraînement de l’IA (données et simulation) peut parfois s’avérer moins cher et plus rapide qu’un entrainement humain. À long terme, utiliser l’IA pour la maintenance prédictive permet également d’économiser en prolongeant la vie des équipements et en évitant des pannes.
- Précision accrue et réduction des dommages collatéraux : Des systèmes de ciblage IA bien conçus peuvent potentiellement accroître la précision des frappes et l’identification des menaces. Par exemple, la reconnaissance d’images par IA peut repérer un véhicule camouflé sur une image satellite qu’un analyste humain raterait, garantissant l’engagement de la bonne cible. Des munitions guidées par IA pourraient viser plus juste et même s’annuler si les paramètres ne sont pas satisfaits, prévenant ainsi des tirs accidentels. Une IA contrôlant la défense aérienne peut réagir plus vite à une roquette et calculer un tir qui limite les débris sur les zones peuplées. Les partisans avancent qu’à mesure que l’IA progresse, elle pourrait appliquer les critères d’engagement encore plus strictement qu’un humain sous adrénaline, réduisant ainsi les pertes civiles en guerre. (Cet avantage dépend bien sûr d’une validation extrêmement rigoureuse de l’IA, mais cela reste un potentiel clé.)
- Bénéfices stratégiques et en matière de dissuasion : À un niveau supérieur, posséder des capacités avancées en IA peut constituer un facteur de dissuasion face à l’adversaire. Si l’armée d’un pays est manifestement capable d’exploiter l’IA pour réagir à toute agression rapidement et efficacement, les adversaires pourraient y réfléchir à deux fois avant de provoquer un conflit. L’IA peut aussi contribuer à la stabilité nucléaire en renforçant l’alerte précoce et l’aide à la décision pour les dirigeants, évitant les erreurs d’appréciation. Elle aide également à simuler des scénarios d’entraînement et à concevoir des stratégies, modélisant d’innombrables “et si ?” pour informer les planificateurs – cet avantage intellectuel pouvant se traduire par un avantage stratégique dans des conflits réels. À titre d’exemple, avant une opération majeure, un commandement pourrait utiliser des simulations IA pour anticiper les manœuvres ennemies et optimiser son propre plan, afin de prendre l’adversaire de vitesse d’entrée de jeu.
Principaux risques et inconvénients de l’IA militaire :
- Escalade involontaire et perte de contrôle humain : Une grande crainte est que les systèmes IA, agissant à la vitesse de la machine, puissent accélérer un conflit au-delà de la volonté humaine. Si des armes autonomes s’affrontent (par exemple, des drones en duel ou une IA de cybersécurité répliquant en temps réel), la situation peut dégénérer plus vite que la réaction d’un commandant. Une étude de simulation menée en 2020 par la RAND Corporation a d’ailleurs montré que la rapidité des systèmes autonomes pouvait provoquer une escalade involontaire autonomousweapons.org. Essentiellement, une crise pourrait échapper à tout contrôle car les algorithmes, à la différence des humains, n’ont pas le sens du discernement ou de la prudence – une IA peut interpréter un signal électronique comme une attaque et répliquer, déclenchant un échange meurtrier non souhaité par aucun côté. Ce risque de « guerre éclair » est particulièrement préoccupant dans le contexte nucléaire : on imagine une IA d’alerte précoce confondant un vol d’oiseaux avec des missiles entrants. Si elle ripostait automatiquement, le résultat serait catastrophique. Le maintien d’un contrôle humain effectif est donc vital, mais plus l’IA accélère les situations au niveau du milliseconde, plus il devient difficile de garder un humain « dans la boucle » décisionnelle.
- Vulnérabilités informatiques et piratage de l’IA : Paradoxalement, si l’IA sert à renforcer la cybersécurité, elle constitue aussi une cible pour le piratage. Les ennemis peuvent tenter de pirater ou de leurrer les systèmes IA militaires, avec des conséquences potentiellement désastreuses. En injectant des données malicieuses, un adversaire pourrait tromper un IA de ciblage pour qu’elle confonde des unités amies et ennemies. Autre scénario : un virus s’infiltre et prend le contrôle d’un drone ou véhicule autonome – inversant l’arme contre son propriétaire ou la sabotant au moment critique. À mesure que les systèmes IA deviennent essentiels au commandement et au contrôle, une cyberattaque réussie pourrait paralyser une armée entière. Garantir une cybersécurité robuste pour l’IA (protection des données d’apprentissage, des algorithmes, etc.) reste un défi extrême. En outre, les IA sont vulnérables aux attaques adverses sophistiquées – entrées conçues pour tromper l’IA (par exemple, un motif de pixels qui fait “voir” un char là où il n’y en a pas réellement). Si un ennemi découvre ces failles, il pourra carrément tromper les “yeux” de l’IA. Au final, toute IA reste un logiciel, et un logiciel peut être piraté – un risque terrifiant quand il s’agit d’armements contrôlés en temps réel. Les systèmes militaires sont durcis, mais aucune défense n’est infaillible, et les conséquences d’une IA “détournée” peuvent être mortelles.
- Erreurs de ciblage et dommages aux civils : Le mauvais ciblage est un risque permanent. Les IA actuelles, en particulier celles reposant sur l’apprentissage profond, peuvent commettre des erreurs absurdes – confondant, par exemple, une photo de tortue avec un fusil à cause d’un biais dans la reconnaissance de motifs. Lors des conflits, ces erreurs pourraient conduire à frapper la mauvaise cible. Par exemple, un drone autonome pourrait confondre un véhicule civil avec un véhicule militaire s’il n’a pas été parfaitement entraîné pour un environnement complexe. Ou bien un système IA de garde pourrait surréagir à une action perçue comme hostile et tirer sur des civils. Contrairement à l’humain, l’IA n’a ni intuition ni bon sens pour remettre en question un résultat étrange ; elle fait ce pour quoi elle a été programmée. Si la programmation ou les données d’apprentissage n’ont pas couvert un cas de figure, l’IA peut adopter des comportements imprévus. Les IA sont d’ailleurs qualifiées de boîtes noires, leur imprévisibilité en situation inédite posant problème. L’incident de 2020 en Libye (où un drone autonome aurait tiré sans ordre direct) est un avertissement – heureusement il n’y a pas eu de carnage, mais le risque existe. Le danger ici est la perte de vies humaines à cause d’une défaillance technique ou d’un angle mort. Pareille erreur peut avoir de forts impacts moraux et stratégiques (imaginez un système autonome frappant par erreur un allié ou une partie neutre – crise politique assurée). C’est pourquoi beaucoup de chefs militaires exigent qu’un humain surveille et puisse intervenir ou annuler – mais à grande échelle, avec des IA en essaim, la supervision humaine risque de devenir trop dispersée.
- Biais algorithmique et mauvaise utilisation : Les IA apprennent à partir de données et si ces données sont biaisées ou erronées, l’IA peut agir de manière discriminatoire ou incorrecte. En contexte militaire, cela peut aboutir à ce qu’une IA priorise ou ignore systématiquement certains types de cibles de façon injustifiée. Par exemple, un système de surveillance formé essentiellement sur des images de combattants masculins peut mal reconnaître des combattantes ou des civils, menant à des omissions ou à de fausses alertes. Il existe aussi des craintes de mauvais usage totalitaire : un régime pourrait employer l’IA militaire pour réprimer sa population (drones autonomes pour le maintien de l’ordre, surveillance IA pour traquer les dissidents). La frontière entre défense externe et usage interne devient alors floue – question de droits humains. Enfin, une fois la technologie létale IA développée, elle pourrait servir des fins contraires au droit (par exemple, un dirigeant sans scrupule employant des tueurs autonomes contre ses rivaux politiques et prétendant que la machine a agi seule). Ce sont là des risques plus spéculatifs, mais à intégrer dans la réflexion sur les politiques publiques.
- Course aux armements et instabilité stratégique : Le risque stratégique de l’IA est une course aux armements incontrôlée poussant les États à déployer l’IA à marche forcée de peur d’être dépassés. Cela conduit à un développement précipité, à des essais bâclés et à un plus grand risque d’accidents. C’est aussi déstabilisant : si les pays ne peuvent estimer les capacités adverses (l’IA étant logicielle, pas visible comme un char ou un missile), les pires hypothèses risquent d’alimenter la tension. On peut aussi imaginer un mécanisme de méfiance mutuelle automatisée : chaque IA interprétant de travers les mouvements de celle d’en face (comme évoqué plus haut), créant des crises à partir de presque rien. Certains analystes comparent ce scénario aux doctrines “doigt sur la gâchette” de la guerre froide – mais cette fois-ci avec des algorithmes prêts à agir seuls. Si l’IA peut renforcer la dissuasion par la puissance, elle risque aussi d’éroder les canaux de communication humaine qui avaient permis auparavant d’éviter la guerre nucléaire (exemple : la crise des missiles de Cuba – est-ce qu’une IA aurait fait preuve de retenue ?). Certains experts alertent ainsi que la concurrence militaire incontrôlée sur l’IA pourrait augmenter la probabilité d’une guerre, même involontairement carnegieendowment.org. À l’inverse, si elle est maîtrisée, l’IA pourrait aussi améliorer la stabilité (surveillance parfaite réduisant les surprises, etc.), mais il s’agit-là d’un pari optimiste. Le risque qu’une mauvaise interprétation s’accroisse avec l’autonomie reste réel, à moins d’instaurer de véritables mesures de transparence, de confiance et peut-être de contrôle des armements.
En pesant ces avantages et risques, il est évident que l’IA militaire est une arme à double tranchant – souvent la caractéristique qui fait la force de l’IA (vitesse, autonomie, prise de décision) a aussi son côté sombre (escalade fulgurante, perte de contrôle, rigidité). Les armées et décideurs cherchent à maximiser les atouts (par des tests rigoureux, un déploiement progressif, l’association humain-machine plutôt que l’autonomie totale) et à limiter les faiblesses (par des garde-fous, une supervision et un dialogue international sur les normes). L’espoir est qu’avec une gouvernance adaptée, l’IA puisse vraiment rendre la guerre plus précise, moins coûteuse, plus courte, évitant les massacres de masse du XXe siècle. La crainte, c’est qu’en l’absence de prudence, l’IA rende la guerre encore plus dévastatrice et incontrôlable. Les années à venir seront essentielles pour trouver le juste équilibre – tirer profit des atouts de l’IA pour la défense et la dissuasion, tout en contrôlant les risques pour que, dans un monde piloté par l’IA, l’humanité soit plus en sécurité – et non en danger.
Capacités militaires comparatives de l’IA et investissements par nation
Pour comprendre le paysage mondial de l’IA militaire, il est utile de comparer comment différentes nations investissent et développent ces technologies. Le tableau ci-dessous donne un aperçu de certains pays/acteurs clés, leurs dépenses estimées en IA de défense, ainsi que des exemples de leurs capacités ou initiatives militaires notables fondées sur l’IA :
Pays/Bloc | Investissement estimé en IA de défense | Capacités et initiatives IA notables |
---|---|---|
États-Unis | ~1,8 milliard $ par an (budget IA du Pentagone FY2024) defensescoop.com, plus plusieurs milliards additionnels dans la R&D des systèmes autonomes nationaldefensemagazine.org. | – Project Maven (IA pour l’analyse d’imagerie) éprouvé dans la lutte antiterroriste defense.gov. – Joint All-Domain Command & Control (JADC2) reliant les forces via l’IA ; l’IA ACE de la DARPA a piloté un F-16 en 2023 darpa.mil. – Drones Loyal Wingman : L’USAF prévoit plus de 1 000 CCAs autonomes d’ici 2030 airforce-technology.com. – Le JAIC/CDAO du DoD centralise le développement IA ; lignes directrices éthiques en place (jugement humain requis pour l’usage létal) en.wikipedia.org. |
Chine | « Quelques milliards » de dollars US annuels (comparable aux niveaux US) pour l’IA militaire, selon les analystes nationaldefensemagazine.org. L’industrie IA totale de la Chine : ~23 Mds $ en 2021, objectif 150 Mds $ d’ici 2030 armyupress.army.mil. | – Doctrine de la « guerre intelligentisée » : L’APL investit dans la surveillance, les drones autonomes, l’aide à la décision carnegieendowment.org. – Accent sur l’IA pour l’analyse du renseignement, la maintenance prédictive, la reconnaissance de cibles nationaldefensemagazine.org. – Multiples programmes UAV (drones furtifs, essaims) ; essai 2024 d’un grand essaim de drones pour attaque insulaire armyupress.army.mil. – Fusion civilo-militaire exploitant l’IA des géants technologiques ; développement de missiles et de drones navals à IA embarquée. |
Russie | Dépenses exactes inconnues ; l’IA fait partie du plan de défense 2024–2033 malgré les sanctions. Un chiffre officiel : « marché IA russe » à ~7,3 Mds $ en 2023 (civil & militaire) defensenews.com. | – Accent sur les armes autonomes : Nouveau département IA du ministère, IA intégrée à la défense S-500 pour une réponse plus rapide aux menaces defensenews.com. – Robots de combat (par ex. Uran-9 UGV) et munitions rôdeuses utilisés en Syrie/Ukraine ; modernisation IA sur anciens systèmes defensenews.com. – Priorité à l’IA pour la guerre électronique et le cyber (brouillage, piratage) face aux adversaires high-tech. – Contraintes : dépendance aux laboratoires d’État (laboratoire IA de Rostec) et aux technologies duales ; pénurie de talents et de microprocesseurs. |
OTAN (Alliés) | Financement commun OTAN : 1 Md € NATO Innovation Fund (2022) pour les technologies émergentes. Dépenses des membres majeurs : ex. Royaume-Uni ~2,1 Mds £ en R&D défense 2022 (y c. IA & autonomie) post.parliament.uk. | – Stratégie IA OTAN adoptée en 2021, mise à jour 2024 insistant sur l’usage responsable armyupress.army.mil. – Accélérateur DIANA : soutien aux startups IA, données, etc. à travers l’alliance armyupress.army.mil. – Capacités des alliés : US leader (voir ci-dessus) ; UK expérimente essaims et logistique autonome ; France développe des UAV enrichis IA ; Allemagne cible l’IA pour le soutien au commandement. – Exercices d’interopérabilité OTAN : systèmes IA inter-nations fonctionnent ensemble ; principes communs atténuent les risques éthiques. |
Remarques : Les chiffres d’investissement sont approximatifs et les méthodologies divergent (certains incluent uniquement l’IA, d’autres englobent l’autonomie et la robotique). Les « capacités notables » sont données à titre d’exemple. Tous ces acteurs intensifient en permanence leurs efforts IA : ce panorama évolue donc constamment.
De cette comparaison, il apparaît que les États-Unis et la Chine se détachent clairement comme les deux plus grands acteurs en termes de financement et d’ampleur de l’IA militaire, animant de fait la course aux armements IA. Les États-Unis tirent parti de budgets de défense massifs et de l’innovation technologique privée, tandis que la Chine mobilise des objectifs d’État et la fusion civilo-militaire. La Russie, même avec moins de ressources, s’affirme dans certains domaines, comme les systèmes de combat autonomes et la guerre électronique, portée par des impératifs stratégiques. Parallèlement, la démarche collective de l’OTAN se traduit par des ressources mutualisées et des normes partagées : l’OTAN veille à ce que les pays occidentaux restent à la page technologiquement (malgré des budgets unitaires moins grands que ceux des US ou de la Chine) et que toute IA utilisée soit conforme aux valeurs démocratiques.
Il convient de noter que d’autres pays, non détaillés dans le tableau, sont aussi actifs : Israël est par exemple un leader dans le développement de drones autonomes et d’IA pour la défense des frontières (souvent exportés mondialement), et des pays comme la Corée du Sud, le Japon, l’Inde et la Turquie possèdent des programmes militaires IA en plein essor (la Corée du Sud avec des systèmes de gardes robotisés, l’Inde avec un groupe de travail IA pour la défense, la Turquie avec des essaims de drones et des munitions rôdeuses comme vu dans les récents conflits). Le paysage devient global, mais ce sont les stratégies et les niveaux d’investissement des États-Unis, de la Chine, de la Russie et de l’OTAN qui dictent le rythme et la façon dont l’IA transforme l’équilibre des puissances militaires.
Chronologie des développements notables de l’IA militaire
Pour mettre en perspective l’évolution de l’IA dans la défense, voici une chronologie présentant des jalons, événements et déploiements majeurs qui ont marqué l’essor de l’intelligence artificielle et de l’autonomie dans la guerre :
- 2017 – Lancement de Project Maven et de la stratégie IA : En avril, le Département de la Défense US lance Project Maven, l’équipe de guerre algorithmique transversale, pour intégrer l’IA dans l’analyse des vidéos de surveillance par drones defense.gov. En fin d’année, les algorithmes de vision par ordinateur de Maven sont déployés au Moyen-Orient pour identifier des insurgés dans des vidéos de drones, preuve de l’utilité de l’IA au combat. En septembre, Poutine déclare que celui qui dominera l’IA « dominera le monde », soulignant l’importance stratégique au plus haut niveau. La Chine annonce son Plan de développement IA de prochaine génération, avec pour objectif explicite de devenir un leader mondial de l’IA d’ici 2030, y compris dans le secteur militaire.
- 2019 – « Guerre intelligentisée » et initiatives éthiques : Le Livre blanc chinois sur la défense nationale met en avant la stratégie de « guerre intelligentisée », intégrant l’IA à la modernisation de l’APL carnegieendowment.org. Le Département de la Défense US publie sa première stratégie IA (résumé non classifié), priorisant l’adoption IA pour la rivalité entre grandes puissances et crée le Joint AI Center (JAIC) pour la coordination de projets. Côté éthique, le Defense Innovation Board soumet des principes éthiques IA, adoptés en 2020, et les discussions internationales sur les armes autonomes s’intensifient avec des appels à la régulation.
- 2020 – Premiers usages autonomes sur le champ de bataille : Des armes autonomes entrent en combat réel. Selon l’ONU, en mars 2020 lors de la guerre civile en Libye, un drone rôdeur turc Kargu-2 a attaqué de façon autonome des combattants en retraite sans ordre humain autonomousweapons.org – premier cas recensé d’arme IA « traquant » des humains. En août, les AlphaDogfight Trials de la DARPA font la une : un agent IA d’Heron Systems bat un pilote de l’USAF 5-0 lors d’un dogfight simulé de F-16 armyupress.army.mil, preuve des avancées IA en combat aérien complexe. En parallèle, la guerre du Haut-Karabakh (Azerbaïdjan vs. Arménie) met en évidence la destruction de blindés et défenses aériennes par des drones/munitions IA (souvent israéliens), annonçant le visage des guerres à venir.
- 2021 – Stratégie IA de l’OTAN et démonstrations d’essaims : En octobre, l’OTAN adopte sa première stratégie IA, posant les principes d’usage responsable et le soutien à l’innovation des alliés armyupress.army.mil. L’US Army crée son premier centre d’intégration IA, et le DoD applique les principes éthiques IA (traçabilité, gouvernance). Au Moyen-Orient, Israël aurait employé un essaim de drones IA lors d’un conflit à Gaza – une des premières utilisations d’essaim militaire coordonné pour détecter et attaquer des cibles. Les discussions onusiennes sur les armes autonomes létales n’aboutissent pas : un bloc significatif de pays réclame une interdiction, les puissances IA résistent, et l’année se termine sans consensus pour négocier.
- 2022 – L’IA en guerre ouverte (Ukraine) et réponses mondiales : L’invasion russe de l’Ukraine (février 2022) devient un laboratoire technologique militaire mondial : l’Ukraine utilise l’IA pour le renseignement (reconnaissance faciale de soldats russes, analyse satellite pour l’artillerie), tandis que la Russie déploie des drones Shahed-136 iraniens et ses propres munitions rôdeuses IA – missiles « fire and forget ». Le conflit est qualifié de « laboratoire IA de guerre » car des entreprises comme Palantir fournissent à l’Ukraine des plateformes IA pour le ciblage et la logistique carnegieendowment.org. L’OTAN réagit avec l’accélérateur technologique DIANA et un fonds d’innovation de 1 Md$ pour stimuler les startups défense-IA. En octobre, le DoD crée un Chief Digital and AI Office (CDAO) en surclassant le JAIC pour un impact opérationnel accru. Mondialement, devant l’impact des drones en Ukraine, de nombreux pays investissent massivement dans l’IA militaire et l’autonomie.
- 2023 – Percées et changements politiques : En janvier, le DoD US met à jour sa Directive 3000.09 sur l’autonomie des armes, réaffirmant la nécessité d’un jugement humain tout en offrant un cadre plus clair pour le développement d’armes IA létales en.wikipedia.org. Le programme ACE de la DARPA réalise une première historique fin 2022 (connue en 2023) : une IA pilote un vrai F-16 (X-62 VISTA) en vols réels, y compris des dogfights, sans pilote humain aux commandes darpa.mil. Ce record mondial marque la transition du simulateur au réel. Au printemps, le secrétaire de l’USAF annonce la commande de 1 000 drones ailier IA pour accompagner les chasseurs, démarrage de l’acquisition d’avions de combat autonomes à grande échelle airforce-technology.com. Changement corporate : OpenAI lève l’interdiction d’usage militaire de son IA, signe d’une acceptation croissante par le Big Tech du secteur défense carnegieendowment.org. Sur le plan international, l’impatience face à l’inaction onusienne aboutit à une première résolution de l’Assemblée générale sur les armes autonomes, et le Secrétaire général plaide pour un traité – faisant monter l’enjeu diplomatique autonomousweapons.org.
- 2024 – Exercices d’essaims et appels à des traités : À la mi-2024, la Chine organise un exercice de drone-essaim très médiatisé, avec des essaims lancés depuis la mer et l’air pour un scénario de débarquement insulaire – interprété comme une préparation à Taïwan armyupress.army.mil. L’OTAN, lors de son sommet de Washington en juillet, publie une stratégie IA révisée insistant sur la sécurité, le test et le partage des données à l’échelle de l’Alliance armyupress.army.mil. À l’automne, un front commun de pays du Sud et d’Europe réunit à l’ONU pour exiger des négociations sur la régulation des armes autonomes. En parallèle, l’US Army déploie des véhicules de combat autonomes prototypes dans ses exercices, et la Navy teste pour la première fois l’autonomie de bâtiments en exercice de flotte. Constatant la tendance mondiale, le Secrétaire général de l’ONU qualifie fin 2024 l’IA militaire de « risque grave pour l’humanité » et presse la communauté internationale de produire de nouvelles règles d’ici 2026. Cette année voit aussi les premiers déploiements de constellations de satellites militaires IA (avec IA embarquée pour observation terrestre et détection de menace optimisées).
En 2025, le paysage militaire IA est dynamique et en évolution rapide. En quelques années, on est passé de simples projets pilotes IA à des usages réels de systèmes autonomes en conflit, et au déploiement imminent d’avions ailier IA. La chronologie révèle un pattern : les percées techniques (telles que l’IA battant les pilotes humains ou les essaims de drones autonomes) sont aussitôt suivies de tentatives de développement de politiques/normes (par ex. la stratégie OTAN ou les débats onusiens), mais la technologie devance en général la diplomatie. Les prochains jalons pourraient être des missions entièrement autonomes, des déploiements massifs d’essaims ou, hélas, un incident IA majeur qui précipiterait une régulation globale.
Ce qui est clair, c’est que l’IA dans la guerre n’est plus hypothétique – elle est là. Le défi et la responsabilité de la communauté internationale consistent à gérer ces évolutions de manière à renforcer la sécurité tout en respectant notre boussole éthique, avant que le génie ne soit complètement sorti de la bouteille.