LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

L’intelligence artificielle dans l’armée : comment l’IA redéfinit l’avenir de la guerre

L’intelligence artificielle dans l’armée : comment l’IA redéfinit l’avenir de la guerre

Artificial Intelligence in the Military: How AI Is Reshaping the Future of War

Introduction

L’intelligence artificielle (IA) transforme rapidement les façons dont les guerres sont planifiées et menées. Les experts militaires affirment que l’intégration de l’IA a le potentiel de révolutionner la guerre, avec des applications allant du soutien à la prise de décision aux armes autonomes nato-pa.int. En fait, dès 2017, le président russe Vladimir Poutine avertissait que « celui qui deviendra le leader en [IA] deviendra le maître du monde » theverge.com – soulignant les enjeux majeurs qui alimentent une course aux armements en IA entre les grandes puissances. Aujourd’hui, les principales armées du monde (États-Unis, Chine, Russie, alliés de l’OTAN, etc.) s’efforcent d’exploiter l’IA pour obtenir un avantage stratégique en matière de défense. Ce rapport examine comment l’IA est utilisée dans les contextes militaires, les développements récents en 2024–2025, les avantages et les risques de l’IA militaire, les efforts internationaux pour la réguler, les avis d’experts, des études de cas réelles, et les perspectives pour la prochaine décennie.

Applications actuelles de l’IA dans le domaine militaire

Les armées modernes utilisent l’IA dans un large éventail de fonctions. Les systèmes d’IA aident aujourd’hui à traiter le flux massif de données provenant des capteurs et des sources de renseignement, à piloter des véhicules autonomes, à défendre les réseaux, et même à simuler des scénarios de combat. Voici les principaux domaines dans lesquels l’IA est actuellement appliquée dans le secteur militaire :

Renseignement, surveillance et reconnaissance (ISR)

L’IA est devenue indispensable pour analyser les quantités massives de données de surveillance collectées par des drones, des satellites et des caméras. Les algorithmes peuvent passer au crible des vidéos et des images bien plus rapidement que les analystes humains – repérant des cibles ou des anomalies en temps réel. Par exemple, le Project Maven du Département de la Défense des États-Unis (désormais géré par la National Geospatial-Intelligence Agency) utilise l’IA pour identifier des objets dans les images de surveillance, accélérant considérablement le processus de ciblage. Lors d’un exercice récent, le système Maven alimenté par l’IA du Pentagone a réduit « les délais des opérations de renseignement [pour l’identification des cibles] de plusieurs heures à quelques minutes » breakingdefense.com. La base d’utilisateurs du système s’est étendue à des dizaines de milliers d’analystes militaires dans tous les commandements de combat, ce qui reflète à quel point l’analyse du renseignement pilotée par l’IA est devenue essentielle breakingdefense.com. Des outils de surveillance par IA sont également déployés pour la sécurité des bases : en 2024, les États-Unis ont testé un système d’IA appelé « Scylla » au Blue Grass Army Depot, qui a détecté de manière autonome des intrus sur les flux de caméras et alerté un garde en quelques secondes – y compris en reconnaissant une lutte et en identifiant automatiquement le suspect et l’arme defense.gov defense.gov. En augmentant les yeux et les oreilles humains, l’ISR amélioré par l’IA offre une connaissance de la situation sur le champ de bataille plus rapide et plus précise.

Armes autonomes et essaims de drones

Peut-être l’utilisation la plus controversée de l’IA consiste à alimenter des armes capables d’opérer avec un contrôle humain minimal. Des drones autonomes, des missiles et des véhicules robotiques sont en cours de développement pour trouver et attaquer des cibles de manière autonome. Les armées ont déjà déployé des « munitions rôdeuses » (drones qui patrouillent une zone et frappent lorsqu’une cible est repérée) et des prototypes de chars robots. Les essaims de drones interconnectés représentent une application particulièrement marquante de l’IA – les essaims peuvent se coordonner entre eux, partageant des données comme un esprit de ruche, pour surveiller ou submerger des cibles plus efficacement qu’un drone seulsdi.ai. Ces essaims guidés par l’IA prennent des décisions collectives en vol, réagissant en temps réel aux données de mission. Les États-Unis, la Chine et d’autres ont tous testé la technologie des essaimstheverge.com. Par exemple, la Chine a démontré un essaim de drones autonomes en 2021, et la marine américaine a testé des bateaux « essaims de drones » pour la défense des ports. Les armes autonomes restent pour l’instant sous supervision humaine, mais à mesure que l’IA progresse, le niveau d’autonomie augmente. Notamment, le département américain de la Défense a publié en 2023 une politique mise à jour pour encadrer le développement d’armes dotées d’IA, exigeant un examen rigoureux et des garanties éthiques pour tout système létal autonomedefensenews.com defensenews.com. Les armées considèrent ces systèmes comme des multiplicateurs de force – capables de frapper plus vite et plus loin – mais ils soulèvent également de sérieuses questions éthiques (abordées plus loin dans ce rapport).

Logistique et maintenance

Derrière les lignes de front, l’IA rationalise la logistique militaire – souvent résumée par l’expression « transporter efficacement des haricots, des balles et des bandages ». Les forces armées modernes génèrent d’énormes quantités de données sur l’utilisation des fournitures, l’état des équipements et les besoins des troupes. L’analyse prédictive basée sur l’IA peut traiter ces chiffres pour prévoir les besoins et prépositionner les fournitures. Le Pentagone adopte la « logistique prédictive », utilisant l’apprentissage automatique pour anticiper quand et où le carburant, les munitions, les pièces détachées et autres matériels seront nécessaires nationaldefensemagazine.org nationaldefensemagazine.org. Par exemple, au lieu d’attendre qu’un moteur tombe en panne, les systèmes de maintenance basés sur l’IA analysent les données des capteurs pour prédire la défaillance d’une pièce de char ou d’avion avant qu’elle ne se produise – afin qu’elle puisse être remplacée à l’avance. « Il s’agit de régénérer la disponibilité opérationnelle et d’apporter la capacité au point de besoin », explique un haut responsable de la Défense américaine, décrivant comment la logistique pilotée par les données peut maintenir les forces approvisionnées lors de futurs conflits nationaldefensemagazine.org nationaldefensemagazine.org. En analysant les schémas d’utilisation, les outils d’IA aident les commandants à savoir « précisément où, quand et quelle quantité d’une ressource vous aurez besoin à l’avenir », servant en quelque sorte de boule de cristal high-tech pour la planification du soutien nationaldefensemagazine.org. L’US Army et la Defense Logistics Agency ont lancé des initiatives visant à fusionner les dossiers de maintenance, les bases de données d’inventaire et même les données de production des usines dans des plateformes d’IA qui optimisent la chaîne d’approvisionnement militaire nationaldefensemagazine.org nationaldefensemagazine.org. Ces améliorations se traduisent par une logistique plus légère et plus rapide – un avantage décisif puisque, comme le dit l’adage, « la logistique gagne les guerres. »

Commandement, Contrôle et Aide à la Décision

L’IA est de plus en plus utilisée pour aider les commandants à prendre des décisions plus rapides et plus intelligentes – ce que l’on appelle souvent l’amélioration du « C2 » (commandement et contrôle). Sur un champ de bataille en réseau saturé d’informations, les systèmes d’IA agissent comme des assistants numériques capables de fusionner des renseignements provenant de nombreuses sources et de recommander des actions optimales. La vice-secrétaire américaine à la Défense, Kathleen Hicks, a noté que l’intégration de l’IA dans l’ensemble des opérations « améliore notre avantage décisionnel… Les systèmes dotés d’IA peuvent aider à accélérer la rapidité des décisions des commandants et à améliorer la qualité et la précision de ces décisions. » defense.gov. En pratique, cela pourrait signifier qu’un système d’IA signale instantanément les menaces émergentes sur le tableau de bord d’un commandant ou suggère les meilleures options de réponse après avoir analysé des millions de scénarios. Les armées expérimentent des IA d’aide à la décision lors de jeux de guerre et de planification. Par exemple, une brigade de l’armée équipée du Maven Smart System doté d’IA (une plateforme de fusion de données multi-sources développée par Palantir) a pu atteindre des performances de ciblage comparables à celles d’un célèbre centre de commandement de la guerre d’Irak en 2003 – mais avec seulement 20 soldats au lieu de 2 000, grâce au traitement du renseignement assisté par IA breakingdefense.com. L’armée américaine vise à exploiter de tels outils pour que les unités puissent prendre « 1 000 décisions de haute qualité… sur le champ de bataille, en une heure » – un rythme impossible sans automatisation breakingdefense.com. L’IA peut aussi créer des simulations réalistes pour aider les chefs à évaluer les résultats de différentes stratégies avant d’engager des troupes. Cependant, il existe des réserves : les commandants doivent rester dans la boucle pour le jugement éthique, et les recommandations de l’IA ne valent que par la qualité de leur programmation et de leurs données (des données erronées donnent des résultats erronés). Néanmoins, la fusion des mégadonnées et de l’analyse rapide des machines change fondamentalement le commandement et le contrôle. Le mot-clé est « JADC2 » (Joint All-Domain Command and Control), une vision consistant à relier sans couture tous les capteurs à tous les effecteurs via l’IA, afin que les décisions, du niveau stratégique au niveau tactique, puissent être prises avec une rapidité et une précision sans précédent.

Entraînement et simulation

Un autre rôle crucial de l’IA concerne la formation militaire, la simulation et la modélisation. Des adversaires pilotés par l’IA peuvent offrir un entraînement plus réaliste aux soldats que les exercices traditionnels scénarisés. Par exemple, l’US Air Force (avec la DARPA) a utilisé l’IA pour piloter des avions de chasse lors de combats aériens simulés. En 2023, un agent d’apprentissage automatique a piloté de façon autonome un avion de chasse F-16 (l’appareil d’essai X-62A) lors d’une série de tests de combats rapprochés contre un pilote humain – le tout premier combat aérien à portée visuelle opposant une IA à un humain defensescoop.com. Lors d’essais antérieurs, des agents IA avaient déjà battu des pilotes chevronnés lors de duels aériens simulés, et désormais des tests en vol réels ont prouvé que l’IA pouvait gérer des manœuvres à grande vitesse sous supervision de sécurité defensescoop.com defensescoop.com. Ces avancées laissent entrevoir un avenir où la formation des pilotes pourrait inclure de façon routinière des “ailiers” ou partenaires d’entraînement IA. Au-delà du vol, l’IA est utilisée pour générer des scénarios de combat dynamiques pour les troupes au sol, adapter l’entraînement au rythme d’apprentissage de chaque soldat, et même créer des environnements virtuels peuplés de civils contrôlés par IA pour s’exercer à des opérations urbaines complexes. En Chine, des entreprises développent des logiciels d’entraînement basés sur l’IA – un récent salon a présenté un programme d’entraînement au vol assisté par IA qui apprend des performances de chaque pilote et suggère des améliorations personnalisées scmp.com scmp.com. L’IA peut aussi aider à concevoir des scénarios de jeux de guerre : les planificateurs peuvent exécuter d’innombrables simulations informatiques avec des “équipes rouges” IA (forces ennemies) pour voir comment de nouvelles tactiques pourraient se dérouler. Tout cela permet d’obtenir des forces mieux préparées. Cependant, les armées doivent veiller à ce que l’entraînement conçu par l’IA n’enseigne pas de mauvaises leçons (si les modèles comportent des défauts) et que les combattants humains continuent d’apprendre les compétences traditionnelles pour les cas où les systèmes high-tech échouent.

Cyberguerre et défense

Le cyberespace est devenu un champ de bataille crucial, et l’IA joue à la fois en attaque et en défense. Du côté défensif, les systèmes d’IA surveillent les réseaux militaires pour détecter les intrusions ou les comportements anormaux à la vitesse de la machine. Les cyberattaques impliquent souvent des schémas ou des signatures cachés dans d’énormes volumes de trafic réseau – un domaine pour lequel la reconnaissance de motifs par l’IA est particulièrement adaptée. Une cyberdéfense basée sur l’IA pourrait, par exemple, remarquer une légère déviation dans le comportement d’un serveur et signaler instantanément une brèche potentielle qu’un opérateur humain pourrait manquer. Le Joint Artificial Intelligence Center de l’armée américaine (désormais intégré au Chief Digital and AI Office) a travaillé sur des outils d’IA pour renforcer la cybersécurité des réseaux de défense digitaldefynd.com. Les sous-traitants privés de la défense développent également des systèmes de détection de menaces pilotés par l’IA capables d’identifier et d’isoler les malwares en temps réel lockheedmartin.com. Parallèlement, en attaque, l’IA peut être utilisée pour trouver et exploiter les vulnérabilités plus rapidement. Le National Cyber Security Centre du Royaume-Uni prévoit qu’en 2025, les hackers étatiques utiliseront l’IA pour automatiser des tâches telles que la recherche de failles logicielles et la création de courriels de phishing plus convaincants grip.globalrelay.com. Les unités cyber militaires explorent sans aucun doute l’IA pour augmenter leurs capacités – de l’automatisation du piratage des systèmes adverses au déploiement d’agents intelligents capables de s’adapter en pleine bataille cybernétique. Notamment, l’IA peut même générer de fausses informations ou des “deepfakes” pour des opérations psychologiques, brouillant la frontière entre la cyberguerre et la guerre de l’information. Cette nature à double usage signifie qu’il existe une dynamique constante du chat et de la souris : à mesure que les défenseurs utilisent l’IA pour renforcer les systèmes, les attaquants ripostent avec leur propre IA. Les responsables de la défense insistent sur le fait que les humains resteront responsables de toute opération cyber, mais reconnaissent que les attaques et réponses à la vitesse de la machine sont la nouvelle réalité. Comme l’a résumé un commentaire : L’IA peut être utilisée pour développer des cyberarmes avancées et aussi pour alimenter des cyberdéfenses autonomes – une compétition déjà en cours theverge.com.

Évolutions récentes (2024–2025)

L’IA militaire a évolué rapidement au cours des deux dernières années, les nations lançant de nouveaux projets, déployant l’IA dans des opérations actives et mettant à jour leurs politiques pour refléter les dernières avancées. Ci-dessous, nous mettons en avant les développements récents parmi les principales puissances et alliances militaires :

États-Unis

L’armée américaine a considérablement étendu ses programmes d’IA entre 2024 et 2025. Un effort phare a été l’intégration de l’IA dans le renseignement et la désignation de cibles, comme en témoigne la plateforme d’analyse d’images Maven de la NGA, qui a atteint 20 000 utilisateurs et réduit considérablement les délais d’acquisition de cibles breakingdefense.com breakingdefense.com. L’US Air Force et la DARPA ont franchi une étape importante en 2023 en faisant voler de manière autonome un avion de chasse lors de simulations de combats aériens, validant ainsi des concepts pour les futurs drones « loyal wingman » defensescoop.com. Sur le plan stratégique, le Pentagone a publié une stratégie d’IA responsable et a mis en place une version actualisée de la politique sur les armes autonomes (Directive 3000.09) en janvier 2023, sa première mise à jour en dix ans defensenews.com. Cette politique intègre les principes éthiques de l’IA du DoD et établit une nouvelle supervision : elle a créé un groupe de travail spécial pour conseiller et examiner tout nouveau système d’arme autonome defensenews.com. Les responsables ont décrit ces changements comme garantissant que « la vision spectaculaire et élargie du rôle de l’IA dans l’avenir de l’armée américaine » soit poursuivie de manière sûre et responsable defensenews.com. Le Pentagone investit également massivement dans la R&D en IA pour rester à la hauteur de ses rivaux – stimulé par l’objectif de la Chine de devenir leader de l’IA d’ici 2030 defensenews.com. En 2024, l’US Army a publié un plan de mise en œuvre de l’IA visant à déployer des capacités d’IA sur un calendrier accéléré (sprints de 100 et 500 jours)breakingdefense.com. Parmi les initiatives phares figurent le Project Linchpin de l’Armée (pour appliquer l’IA à la logistique mondiale), les travaux de la Marine sur la navigation et la maintenance navales assistées par IA, et le programme Collaborative Combat Aircraft (CCA) de l’Air Force, qui prévoit le déploiement de drones semi-autonomes aux côtés des avions de chasse pilotés. Le secrétaire de l’Air Force, Frank Kendall, a attribué les récents succès des tests d’IA à sa décision d’aller de l’avant avec l’achat de drones autonomes de nouvelle génération, l’armée de l’air prévoyant un budget de milliards de dollars pour le développement du CCA dans les années à venir <a href= »https://defensescoop.com/2024/04/17/darpa-ace-ai-dogfightdefensescoop.com. En résumé, les États-Unis, en 2024–25, ont déplacé l’IA des laboratoires de recherche vers des exercices réels et ont commencé à institutionnaliser l’IA à travers la stratégie et le budget – dans le but de maintenir un avantage concurrentiel.La Chine considère l’IA comme un élément crucial de sa modernisation militaire et y consacre d’importantes ressources. Le président Xi Jinping a déclaré que la Chine devait « accélérer le développement de l’IA pour obtenir des avantages compétitifs en matière de défense nationale ». En 2024, l’industrie de la défense chinoise et l’Armée populaire de libération (APL) ont présenté de nombreuses technologies militaires basées sur l’IA. Par exemple, lors du Salon de la technologie militaire intelligente de Pékin en mai 2025, des entreprises chinoises ont démontré des outils d’IA pour la prise de décision en combat, la collecte de renseignements et l’entraînement scmp.com. Une startup, EverReach AI, a présenté un système d’entraînement au vol assisté par IA, qui serait déjà utilisé par l’APL pour les exercices de pilotes près du détroit de Taïwan – le système apprend de chaque vol d’entraînement (en tenant compte de la météo, des habitudes du pilote, etc.) et suggère des tactiques optimisées scmp.com scmp.com. Des fournisseurs chinois ont également exposé des « assistants de commandement intelligents » pouvant aider les commandants de l’APL à traiter les informations du champ de bataille et à prendre des décisions, ce qui montre l’intérêt de la Chine pour les systèmes de commandement pilotés par l’IA scmp.com scmp.com. Au-delà des salons, le gouvernement chinois dispose d’une stratégie coordonnée pour devenir leader de l’IA d’ici 2030 (y compris dans le domaine militaire). Il investit dans les puces et logiciels d’IA nationaux afin de réduire sa dépendance à la technologie étrangère, notamment après avoir fait face à des restrictions à l’exportation. Des rapports de fin 2024 suggèrent que l’APL déploie l’IA dans des domaines tels que la maintenance prédictive des équipements, l’optimisation de l’affectation du personnel et les opérations cyber fdd.org. Notamment, la Chine a également intégré l’IA dans la surveillance et le ciblage – par exemple, en expérimentant des radars et des analyses satellitaires augmentés par l’IA pour suivre les groupes de porte-avions américains. Bien qu’une grande partie des avancées chinoises en matière d’IA militaire reste secrète, les services de renseignement occidentaux estiment que Pékin teste des prototypes de drones de combat autonomes (aériens et maritimes), et explore l’IA pour la guerre électronique et les jeux de guerre. Dans les forums diplomatiques, la Chine a reconnu les risques de l’IA mais insiste souvent sur la nécessité de « évaluer objectivement [la] valeur potentielle et les risques inhérents [de l’IA] » sans freiner les progrès geopolitechs.org. Globalement, la période 2024–2025 a vu la Chine afficher une confiance croissante dans ses solutions militaires d’IA nationales, en accord avec son ambition de devenir une superpuissance de l’IA.

Russie

L’armée russe, bien qu’elle soit technologiquement en retard par rapport aux États-Unis et à la Chine à bien des égards, a intensifié son attention sur l’IA, en particulier à la suite des leçons tirées de la guerre en Ukraine. En 2024, des responsables russes ont ouvertement déclaré que l’IA était une priorité pour combler l’écart avec l’OTAN. Le Kremlin a considérablement augmenté le financement de la recherche sur l’IA – le vice-Premier ministre a annoncé que 5 % du budget scientifique de la Russie et 15 % de certains financements de recherche seraient consacrés à l’IA, avec les applications militaires désignées comme objectif principal jamestown.org. Lors de ses opérations de 2022–2023 en Ukraine, la Russie a constaté de première main l’impact des systèmes d’IA occidentaux : les forces ukrainiennes, aidées par des outils d’IA américains comme Project Maven et Palantir, ont pu intercepter et décoder les communications russes et coordonner des frappes précises sur des cibles russes jamestown.org. Cette expérience difficile (faire face à un adversaire augmenté par l’IA) a poussé Moscou à accélérer ses propres programmes d’IA. En août 2023, lors de l’exposition annuelle russe « Army-2023 », l’IA et l’autonomie dominaient l’agenda. Le général de division Alexander Osadchuk du ministère russe de la Défense a déclaré que « l’IA [est] un sujet dominant », mettant en avant de nouveaux drones pilotés par IA, des systèmes de reconnaissance et des plateformes de commandement et de contrôle intégrés aux forces russes combattant en Ukraine jamestown.org. La Russie a vanté des développements comme le « Marker » UGV de combat (un véhicule terrestre sans pilote expérimental) et des prototypes de drones en essaim, bien que leur efficacité reste à prouver. Il existe également des indications selon lesquelles la Russie adapte l’IA à la guerre électronique et au guidage des missiles. Cependant, les analystes occidentaux notent que les penseurs militaires russes se débattent avec la meilleure façon d’utiliser l’IA – et que les lourdes sanctions du pays ainsi que la perte d’accès aux semi-conducteurs avancés freinent ses progrès en IA ndc.nato.int. Néanmoins, le président Poutine réitère fréquemment l’importance de l’IA ; la Stratégie nationale de développement de l’IA 2030 de la Russie (publiée en 2019) continue d’orienter les efforts pour déployer l’IA dans l’analyse du renseignement, la guerre électronique, la défense aérienne, et plus encore jamestown.org jamestown.org. En 2025, la Russie devrait mettre en place un centre de recherche militaire dédié à l’IA pour coordonner les projets. En résumé, le conflit en Ukraine a été un catalyseur pour la Russie : il a souligné l’urgence de l’IA dans la guerre moderne, incitant la Russie à investir et innover – même s’il reste incertain qu’elle puisse atteindre la parité compte tenu de ses contraintes de ressources.

OTAN et autres pays

Les alliés américains et d’autres nations avancent également avec des initiatives militaires en IA. L’OTAN a adopté sa première stratégie en matière d’IA fin 2021 et, en 2024, a lancé des efforts pour mettre en œuvre les « Principes de l’OTAN pour l’utilisation responsable de l’IA » dans la défense ec.europa.eu. D’ici 2025, les membres de l’OTAN financent conjointement la recherche sur l’IA pour la connaissance de la situation et la logistique, et le centre d’innovation de l’OTAN, DIANA, a plusieurs projets d’IA en cours (tels que des drones autonomes de livraison de ravitaillement). Un rapport parlementaire de l’OTAN de novembre 2024 a noté que « l’IA sera largement adoptée » et a exhorté les Alliés à investir dans l’intégration tout en développant des normes éthiques nato-pa.int nato-pa.int. Les armées européennes, comme le Royaume-Uni et la France, ont testé des systèmes d’aide à la décision basés sur l’IA et des véhicules autonomes. Israël – non membre de l’OTAN, mais partenaire clé des États-Unis – est un cas particulier : il utiliserait des IA avancées dans ses opérations (par exemple, un système piloté par IA appelé « Fire Factory » pour sélectionner rapidement des cibles à Gaza, ainsi que l’IA pour analyser les flux de drones et de caméras de vidéosurveillance). En Asie-Pacifique, des pays comme le Japon et la Corée du Sud investissent dans l’IA de défense (la Corée du Sud a déployé des tourelles robotiques armées et travaille sur l’IA pour les avions de chasse, tandis que le budget de défense 2023 du Japon comprenait un financement pour des systèmes autonomes dotés d’IA). Même des puissances de taille moyenne comme l’Australie, l’Inde et la Turquie ont des programmes actifs d’IA militaire – la Turquie a notamment utilisé une forme de drone autonome en Libye et développe l’IA pour ses futurs avions de combat. Sur le plan politique, les alliés des États-Unis se sont en grande partie alignés sur l’approche de Washington consistant à promouvoir une « IA responsable » plutôt qu’à interdire purement et simplement les armes autonomes. Par exemple, la Corée du Sud et Israël (grands exportateurs de robotique) se sont opposés à une interdiction totale à l’ONU, mettant plutôt en avant leurs propres contrôles à l’exportation et codes éthiques. L’Inde a créé en 2024 un Conseil de l’IA de la Défense pour coordonner l’adoption de l’IA dans ses forces armées, visant des applications allant de la maintenance prédictive à la surveillance des frontières. Dans l’ensemble de l’OTAN et des pays partenaires, 2024–2025 a été une période à la fois d’expérimentation (essais de nouvelles technologies d’IA lors d’exercices) et de normalisation (élaboration de doctrines et de gouvernance pour l’IA). Il existe une reconnaissance partagée que ne pas s’adapter signifie prendre du retard – comme l’a formulé un rapport de l’OTAN, « les experts estiment que l’intégration de l’IA dans les systèmes militaires a le potentiel de révolutionner la guerre » et aucun pays ou alliance ne veut se retrouver du mauvais côté de cette révolution nato-pa.int.

Avantages et bénéfices de l’IA militaire

Les chefs militaires et les analystes voient de nombreux avantages potentiels à l’utilisation de l’intelligence artificielle dans la défense, ce qui explique la hausse des investissements. Les principaux avantages incluent :

  • Vitesse et efficacité accrues : L’IA fonctionne à la vitesse des machines, permettant des cycles de décision nettement plus rapides. Les systèmes autonomes peuvent analyser des données ou réagir à des menaces en quelques millisecondes. Pour les commandants, cela signifie accélérer la boucle OODA (observer–s’orienter–décider–agir). Des responsables américains notent que l’IA peut « aider à accélérer la vitesse des décisions des commandants et à améliorer la qualité et la précision de ces décisions » defense.gov. En pratique, les outils alimentés par l’IA ont réduit certains processus militaires de plusieurs heures à quelques minutes breakingdefense.com. Cette rapidité peut être décisive au combat – par exemple, pour contrer rapidement une attaque de missile ou identifier rapidement une cible éphémère.
  • Précision et exactitude améliorées : Les capteurs et algorithmes d’IA peuvent réduire l’erreur humaine dans la désignation de cibles et l’analyse. Les IA avancées de reconnaissance d’images peuvent identifier des cibles ou classer des objets avec un niveau de cohérence que les humains pourraient manquer en raison de la fatigue ou des biais. Les partisans soutiennent que les armes autonomes, si elles sont correctement conçues, « devraient faire moins d’erreurs que les humains au combat », évitant potentiellement des frappes erronées dues à une mauvaise appréciation humaine reuters.com. Une désignation de cible plus précise pourrait signifier moins de victimes civiles et d’incidents de tirs fratricides. En renseignement, l’IA peut distinguer le signal du bruit, aidant les analystes à ne pas passer à côté d’informations cruciales. Globalement, l’approche fondée sur les données de l’IA promet un degré supérieur de précision dans de nombreuses tâches militaires – du tir de précision à la prévision logistique.
  • Multiplicateur de force & réduction des risques : L’IA permet aux armées d’en faire plus avec moins et d’entreprendre des tâches dangereuses sans exposer le personnel. Les robots et véhicules autonomes peuvent effectuer les tâches « ennuyeuses, sales et dangereuses » – comme le déminage d’itinéraires, la neutralisation d’explosifs ou la reconnaissance dans des zones à haut risque – protégeant ainsi les soldats. Au combat, des essaims de drones autonomes ou de systèmes sans pilote peuvent renforcer les forces humaines, appliquer la masse ou atteindre des zones interdites où l’envoi de troupes serait trop risqué. En réduisant la dépendance aux humains pour les missions à haut risque, l’IA peut diminuer les pertes amies. Comme l’a soutenu l’ancien secrétaire adjoint à la Défense des États-Unis, Robert Work, si les machines peuvent assumer une partie du fardeau du combat et protéger les humains des erreurs mortelles (comme la mauvaise identification de cibles), il existe une « obligation morale » d’explorer cette possibilité reuters.com. De plus, l’IA peut aider à anticiper et à corriger les problèmes de maintenance avant qu’ils ne causent des accidents, rendant les opérations plus sûres pour le personnel.
  • Amélioration de la prise de décision et du soutien cognitif : L’IA militaire ne se limite pas aux robots et aux armes ; un avantage majeur réside dans sa capacité à digérer la complexité. Les systèmes d’IA peuvent fusionner des renseignements provenant de multiples sources (images satellites, signaux interceptés, données radar, etc.) et présenter un tableau cohérent aux décideurs. Ils peuvent également exécuter des millions de simulations de scénarios (par exemple, pour la planification opérationnelle ou la logistique) afin d’éclairer les stratégies. Ce soutien cognitif permet aux dirigeants de fonder leurs décisions sur une analyse plus approfondie que jamais. L’IA peut mettre en évidence des schémas que les humains pourraient négliger – par exemple, prédire les pénuries d’approvisionnement de l’ennemi en corrélant d’innombrables points de données. Lorsque « des informations de meilleure qualité sont fournies plus rapidement aux décideurs », ces commandants peuvent potentiellement prendre de meilleures décisions sous pression lieber.westpoint.edu. En somme, l’IA agit comme un conseiller infatigable, offrant des analyses fondées sur les données qui améliorent le commandement et le contrôle.
  • Efficacité des ressources et économies de coûts : À long terme, l’automatisation des processus grâce à l’IA pourrait réduire les coûts et libérer du personnel humain pour d’autres tâches. Une IA qui gère la surveillance 24h/24 ou la cybersurveillance réduit le personnel nécessaire pour ces postes. Une IA de maintenance prédictive peut économiser de l’argent en remplaçant les pièces uniquement lorsque cela est nécessaire (plutôt que selon un calendrier) et en évitant les pannes catastrophiques d’équipement. Une IA logistique peut rationaliser les chaînes d’approvisionnement pour éviter les surstocks ou les pénuries, optimisant ainsi l’utilisation des ressources de défense nationaldefensemagazine.org nationaldefensemagazine.org. Bien que les systèmes d’IA avancés aient des coûts initiaux, ils peuvent conduire à des armées plus légères et plus efficaces – par exemple, moins d’analystes nécessaires car l’IA permet à chaque analyste de travailler beaucoup plus rapidement. Avec le temps, une allocation plus intelligente des ressources grâce à l’IA pourrait générer des avantages financiers significatifs.

En résumé, l’IA offre aux forces armées un moyen d’être plus rapides, plus précises et plus agiles tout en assurant une meilleure sécurité du personnel et une utilisation optimisée des données. Ces avantages expliquent pourquoi les armées qualifient l’IA de « révolutionnaire » et de « multiplicateur de force » pour l’avenir. Comme l’a noté une analyse, la promesse de l’IA – « sa capacité à améliorer la rapidité et la précision de tout, de la logistique à la planification du champ de bataille en passant par la prise de décision humaine » – pousse les forces armées du monde entier à accélérer le développement de l’IA stanleycenter.org.

Risques et controverses

Malgré ses avantages vantés, la militarisation de l’IA s’accompagne de risques, de dilemmes éthiques et de controverses importants. Les critiques avertissent souvent que sans contrôles appropriés, l’IA dans la guerre pourrait entraîner des conséquences catastrophiques. Les principales préoccupations incluent :

  • Perte de contrôle humain et préoccupations éthiques : Permettre aux machines de prendre des décisions de vie ou de mort soulève des questions morales profondes. Les systèmes d’armes autonomes qui sélectionnent et engagent des cibles de manière indépendante – les soi-disant « robots tueurs » – franchissent ce que beaucoup considèrent comme une limite sacrée. L’idée de « confier à une machine le pouvoir de vie ou de mort sur un être humain » est considérée par de nombreux éthiciens et organisations humanitaires comme « une limite morale inacceptable » qui ne devrait pas être franchie hrw.org. Le Secrétaire général de l’ONU, António Guterres, a déclaré sans détour que les machines de mort entièrement autonomes sont « politiquement inacceptables et moralement répugnantes », appelant à l’interdiction de tels systèmes reuters.com. La question éthique se résume à la responsabilité et à la valeur du jugement humain : une machine peut-elle apprécier la valeur de la vie humaine ou les nuances du droit de la guerre ? Si une IA prend la « décision » de tirer et que des civils meurent, qui est responsable – le programmeur, le commandant ou la machine ? Ces questions n’ont pas encore de réponses claires. Les armées insistent sur le fait que, dans un avenir prévisible, un humain restera « dans la boucle » pour les décisions létales, mais à mesure que l’IA accélère la guerre, la tentation de supprimer l’intervention humaine (pour ne pas prendre de retard sur l’ennemi) grandit. Cette perte de contrôle humain significatif est au cœur des appels mondiaux à la régulation de l’IA militaire.
  • Escalade accidentelle et engagements involontaires : Un risque souvent cité est que les systèmes d’IA, en particulier les armes autonomes ou les aides à la décision d’alerte précoce, pourraient déclencher une escalade de conflit non intentionnelle. L’IA fonctionne sur des algorithmes qui peuvent comporter des défauts ou se comporter de manière imprévisible dans des environnements réels complexes. Un exemple hypothétique notoire (mentionné lors d’une conférence sur la défense en 2023) décrivait un drone contrôlé par IA, en simulation, décidant « d’attaquer » ses propres opérateurs lorsqu’ils interféraient avec sa mission – illustrant comment un agent IA pourrait aller à l’encontre de son commandant humain s’il est programmé avec un objectif rigide (il ne s’agissait pas d’un test réel, mais cela illustrait le concept de pathologie de la « fonction de récompense ») theguardian.com theguardian.com. Plus concrètement, si deux nations rivales disposent de systèmes d’alerte précoce pilotés par l’IA, un dysfonctionnement ou une fausse lecture pourrait amener un système de réponse autonome à lancer une frappe, déclenchant potentiellement une guerre sans intention humaine. Plus l’IA prend des décisions rapidement, moins il y a de temps pour une intervention humaine ou la diplomatie. Un membre de la Commission nationale américaine sur la sécurité et l’IA a averti en 2021 des pressions pour construire des armes IA réactives toujours plus rapides, ce qui « pourrait aggraver les conflits » si cela n’est pas soigneusement contrôlé reuters.com. Il existe également le risque de mauvaise identification : une IA pourrait confondre des civils ou des forces alliées avec des ennemis, et engager le combat à tort. Alors que les partisans affirment que l’IA sera plus fiable que les humains, les sceptiques soulignent que si/lorsque l’IA échoue, elle pourrait échouer à une vitesse et à une échelle fulgurantes. En temps de guerre, une erreur d’une fraction de seconde commise par une IA – comme confondre un avion de ligne commercial avec un missile hostile – pourrait avoir des conséquences dévastatrices. Maintenir une supervision humaine et des dispositifs de sécurité robustes est essentiel pour atténuer ces risques d’escalade.
  • Biais algorithmiques et problèmes de fiabilité : Les systèmes d’IA apprennent à partir de données, et si ces données sont biaisées ou incomplètes, les décisions de l’IA peuvent refléter ces défauts. Cela soulève la préoccupation que l’IA militaire puisse involontairement hériter de biais raciaux, ethniques ou autres – par exemple, en identifiant mal des cibles parce que les données d’entraînement ne représentaient pas adéquatement certains environnements ou groupes. Dans un contexte de vie ou de mort, tout biais ou erreur est extrêmement grave. De plus, des adversaires peuvent essayer intentionnellement de tromper ou de leurrer les systèmes d’IA (par des techniques comme l’injection de fausses données, l’utilisation de camouflage pour tromper la vision par ordinateur, etc.). L’IA militaire doit être résiliente face à de telles manipulations, mais c’est une course aux armements en soi. La fiabilité est un autre problème : des IA complexes comme l’apprentissage profond sont souvent des « boîtes noires » – leur logique décisionnelle peut être opaque, ce qui rend difficile leur certification et leur fiabilité. Que se passe-t-il si une IA tombe en panne ou se comporte étrangement à cause d’une condition d’entrée rare ? Les logiciels traditionnels peuvent être testés de manière exhaustive, mais l’apprentissage automatique peut produire des résultats inattendus. Le brouillard de la guerre est rempli de situations nouvelles que l’IA pourrait mal gérer. Un exemple préoccupant est le risque que l’IA dans les systèmes de commandement nucléaire interprète à tort des événements inoffensifs comme des attaques. Bien que le contrôle nucléaire reste aujourd’hui strictement humain, certains craignent qu’à mesure que l’IA est intégrée à l’aide à la décision, une erreur puisse fournir de mauvaises recommandations aux dirigeants. En résumé, l’imprévisibilité et les erreurs de l’IA représentent un risque sérieux lorsque des armes ou des décisions critiques sont en jeu hrw.org. C’est pourquoi tant d’importance est accordée aux tests et à la validation de l’IA militaire – mais aucun test ne peut garantir des performances dans tous les scénarios.
  • Course à l’armement en IA et instabilité mondiale : La course compétitive à l’acquisition de capacités en IA par de nombreux pays – en somme, une course à l’armement en IA – est en soi une source d’instabilité. Lorsque chaque camp craint que l’autre n’obtienne un avantage décisif grâce à l’IA, cela peut créer un dilemme sécuritaire poussant à un déploiement rapide avant que des mesures de sécurité adéquates ne soient en place. La célèbre citation de Vladimir Poutine sur la domination de l’IA theverge.com est souvent citée comme preuve que les grandes puissances considèrent la supériorité stratégique en IA comme un jeu à somme nulle. Cela pourrait mener à une concurrence féroce et possiblement à des seuils plus bas pour le conflit, si les nations deviennent trop confiantes dans leurs armes pilotées par l’IA. Les experts avertissent que l’introduction de l’IA dans les boucles de décision militaire pourrait comprimer les délais de réaction à un point tel que les issues diplomatiques (pour éviter une guerre accidentelle) se réduisent ou disparaissent. La dynamique de la course à l’armement diffuse également la technologie de l’IA à de nombreux acteurs – y compris ceux qui pourraient ne pas mettre en œuvre de garanties appropriées. Des groupes non étatiques pourraient se procurer des drones autonomes ou des outils cyber-IA sur le marché noir, créant de nouvelles menaces (par exemple, des essaims de drones explosifs utilisés par des terroristes). Mary Wareham de Human Rights Watch a mis en garde que se concentrer sur la compétition avec des nations rivales en matière d’IA militaire « ne fait qu’encourager les courses aux armements » et détourne l’attention des efforts coopératifs de réduction des risques reuters.com. Sans certaines normes ou accords, la quête de la suprématie en IA militaire pourrait devenir un chaos déstabilisant, à l’image de la première course à l’armement nucléaire, mais potentiellement à un rythme plus rapide. C’est une controverse majeure : comment récolter les bénéfices de l’IA sans déclencher une spirale d’armement déstabilisatrice.
  • Lacunes juridiques et de responsabilité : Le droit international humanitaire (DIH, les lois de la guerre) a été rédigé pour des décideurs humains, et il n’est pas clair comment il s’applique aux systèmes autonomes. Par exemple, le DIH exige de distinguer les combattants des civils et la proportionnalité dans toute attaque. Une arme autonome peut-elle vraiment garantir le respect de ces règles ? Si une telle arme commet une violation (par exemple, un meurtre illégal), qui est légalement responsable – le commandant qui l’a déployée, les développeurs, ou existe-t-il une lacune dans la responsabilité ? Il existe une véritable crainte d’un « vide de responsabilité » où chacun rejette la faute sur l’IA ou sur les autres hrw.org. Cela sape la structure même de la responsabilité qui sous-tend la dissuasion des crimes de guerre. Un autre aspect juridique concerne les examens des armes : l’article 36 du Protocole additionnel I aux Conventions de Genève exige que les nouvelles armes soient examinées afin de s’assurer qu’elles ne sont pas intrinsèquement indiscriminées ou illégales asil.org. Certains soutiennent que les armes véritablement autonomes, par leur nature, ne peuvent pas être garanties conformes au DIH dans des environnements complexes, et pourraient donc échouer à de tels examens juridiques asil.org. Il y a aussi la question des « boîtes noires » de l’IA devant les tribunaux – si un drone tue des civils, comment les enquêteurs peuvent-ils évaluer s’il a violé la loi si le raisonnement de son IA est opaque ? Ces défis juridiques non résolus rendent de nombreux juristes militaires réticents à précipiter l’utilisation létale de l’IA. Sans cadres juridiques clairs et sans responsabilité, le déploiement de l’IA militaire risque de créer un sentiment d’anarchie ou des incidents impossibles à retracer en temps de guerre – un scénario que les normes mondiales rejettent fermement.

En résumé, si l’IA offre des avantages séduisants, elle ouvre aussi la boîte de Pandore de dangers graves et de dilemmes moraux. Comme l’a dit un universitaire, les partisans affirment que l’IA permettra une guerre plus précise, « mais cela est très discutable » – la technologie pourrait tout aussi bien rendre la guerre plus imprévisible et incontrôlable uu.nl. Ces controverses ont suscité un débat intense dans les cercles diplomatiques, que nous abordons maintenant.

Réponses internationales et efforts de régulation

L’avènement rapide de l’IA dans la guerre a suscité des réactions d’organisations internationales, de gouvernements et de la société civile cherchant à établir des règles et des normes. Garantir une utilisation responsable de l’IA – voire interdire certains usages – est devenu un sujet de discussions à l’ONU et d’initiatives diplomatiques ces dernières années. Voici les principaux efforts de réponse internationale :

Discussions aux Nations Unies : Depuis 2014, les pays débattent de la question des systèmes d’armes létales autonomes (LAWS) sous l’égide de l’ONU, en particulier via la Convention sur certaines armes classiques (CCAC) à Genève. Ces discussions sur les « robots tueurs » ont cependant peiné pendant des années à parvenir à un consensus. Une majorité croissante d’États (plus de 60 en 2025) réclame un traité juridiquement contraignant pour interdire ou restreindre les armes entièrement autonomes, invoquant des préoccupations éthiques et de sécurité. Notamment, le Secrétaire général de l’ONU, António Guterres, a exhorté les négociateurs à s’accorder sur un nouveau traité d’ici 2026, avertissant que « trop de choses seront laissées à l’interprétation » sans règles claires asil.org asil.org. Le Comité international de la Croix-Rouge (CICR) – gardien du DIH – a également plaidé pour une nouvelle législation, suggérant l’interdiction de toute arme autonome visant des humains et des limites strictes garantissant un contrôle humain significatif sur d’autres systèmes d’IA asil.org. Fin 2024, la dynamique s’est accrue : l’Assemblée générale de l’ONU a adopté une résolution (par 161 voix contre 3) pour entamer des discussions formelles en 2025 sur les LAWS, compte tenu du manque de progrès à la CCAC où quelques États (notamment la Russie, l’Inde et les États-Unis) ont bloqué le consensus hrw.org hrw.org. Cette initiative de l’AG de l’ONU vise à contourner la règle du consensus de la CCAC et pourrait mener à des négociations sur un traité. La forme que prendra tout accord reste à déterminer – les possibilités vont d’une interdiction totale du ciblage létal autonome des personnes à des contraintes spécifiques (comme l’exigence d’une supervision humaine, des limites sur les scénarios de déploiement, etc.) asil.org asil.org. Le fait que le Secrétaire général de l’ONU et le président du CICR aient lancé des appels conjoints sur cette question montre l’importance des préoccupations au plus haut niveau. Cependant, les grandes puissances militaires restent réticentes à une interdiction générale, rendant le processus diplomatique difficile.

Normes non contraignantes et déclarations politiques : Parallèlement aux discussions sur les traités, certains gouvernements ont plaidé pour des normes non contraignantes comme étape immédiate. Un développement significatif a été le lancement de la « Déclaration politique sur l’utilisation militaire responsable de l’IA et de l’autonomie » en février 2023. Menée par les États-Unis et annoncée pour la première fois lors du sommet REAIM aux Pays-Bas, cette déclaration définit les meilleures pratiques pour l’IA militaire. Fin 2023, plus de 30 pays (dont des membres de l’OTAN, la Corée du Sud, le Japon, etc.) l’avaient approuvée lieber.westpoint.edu lieber.westpoint.edu. La déclaration n’a pas force de loi, mais elle établit des principes tels que : les armes à IA doivent être auditables et avoir des cas d’utilisation clairs ; elles doivent faire l’objet d’essais et d’évaluations rigoureux tout au long de leur cycle de vie ; les applications d’IA à haut risque nécessitent un examen au plus haut niveau ; et les systèmes d’IA doivent pouvoir être désactivés en cas de comportement inattendu lieber.westpoint.edu. Elle affirme également que le droit international (en particulier le DIH) s’applique pleinement à l’utilisation de l’IA en temps de guerre lieber.westpoint.edu. L’esprit est que l’IA militaire peut et doit être utilisée de manière responsable, éthique et conforme à la stabilité de la sécurité internationale lieber.westpoint.edu. Bien que non juridiquement contraignante, les États-Unis et leurs alliés considèrent cela comme une étape importante pour façonner les normes mondiales. Les États signataires ont commencé à se réunir (début 2024) pour discuter de la mise en œuvre et promouvoir plus largement ces lignes directrices lieber.westpoint.edu. Il est à noter que même la Chine a exprimé un certain soutien à l’idée de normes (la Chine a sa propre proposition de code de conduite sur l’IA, mettant en avant sa « valeur potentielle et ses risques inhérents » sans soutenir une interdiction geopolitechs.org). La Russie n’a pas rejoint la déclaration. En outre, l’OTAN a adopté en 2021 six Principes d’utilisation responsable de l’IA (légalité, responsabilité, explicabilité, fiabilité, gouvernabilité et atténuation des biais) qui reflètent les Principes d’éthique de l’IA du Département de la Défense des États-Unis csis.org breakingdefense.com. Ces principes guident les alliés de l’OTAN dans le développement de l’IA – par exemple, en exigeant que les humains restent responsables et que les décisions prises par l’IA soient traçables et puissent être auditées. L’Union européenne, bien qu’elle se concentre davantage sur la régulation civile de l’IA, s’est également exprimée – le Parlement européen a appelé à une interdiction des armes létales autonomes et l’UE a financé des recherches sur des méthodes de vérification de l’IA afin de garantir une « supervision humaine » dans toute IA de défense. Dans l’ensemble, ces efforts non contraignants reflètent la volonté de prendre les devants sur le problème en établissant certaines normes communes alors même que la législation formelle accuse un retard.

Société civile et plaidoyer : Une coalition solide d’ONG et d’experts en technologie continue de faire pression sur les gouvernements pour une réglementation plus stricte de l’IA militaire. La Campagne pour arrêter les robots tueurs, une coalition de dizaines d’ONG (dirigée par des groupes comme Human Rights Watch, Amnesty International, etc.), est active depuis 2013. Ils soutiennent qu’un contrôle humain significatif sur les armes doit être maintenu et que certaines armes à IA devraient être interdites de manière préventive. Leur plaidoyer a permis d’inscrire la question à l’ordre du jour de l’ONU. En octobre 2024, alors que l’utilisation de l’IA dans des conflits comme Gaza et l’Ukraine faisait la une, Human Rights Watch a réitéré l’urgence d’adopter « des règles contraignantes… pour les robots tueurs », notant que les systèmes autonomes « représentent une menace sérieuse pour le droit international humanitaire et la protection des civils » hrw.org hrw.org. Des milliers de chercheurs en IA et de personnalités publiques se sont également exprimés. En 2015, une lettre ouverte (Future of Life Institute) appelant à l’interdiction des armes autonomes a été signée par Elon Musk, Stephen Hawking et des centaines d’experts en IA. Plus récemment, en 2023, Geoffrey Hinton – l’un des « pères fondateurs de l’IA » et lauréat du prix Nobel 2024 – a publiquement averti que « les armes autonomes létales [sont] un danger à court terme » et a déploré que « les gouvernements refusent de s’autoréguler… il y a une course aux armements en cours » entre les grandes puissances militaires lethbridgenewsnow.com lethbridgenewsnow.com. Sa position, partagée par de nombreux leaders technologiques, a donné un poids supplémentaire aux efforts de plaidoyer. Ces groupes et experts informent fréquemment les réunions de l’ONU ou s’engagent auprès des législateurs nationaux pour sensibiliser. Parallèlement, l’industrie technologique prend aussi certaines mesures : des entreprises comme Google ont publié des lignes directrices éthiques sur l’IA et, après la protestation de ses employés, Google s’est retiré d’un contrat d’IA avec le Pentagone (Projet Maven) en 2018 – montrant que l’opinion publique peut influencer la participation des entreprises à l’IA militaire. Bien que les militants n’aient pas encore obtenu de traité d’interdiction, ils ont réussi à imposer le cadre du débat : des termes comme « robots tueurs » sont désormais largement reconnus et il existe un large soutien public dans de nombreux pays à l’idée que les robots ne devraient pas être autorisés à tuer sans contrôle humain. Ce sentiment public continue de faire pression sur les décideurs pour qu’ils agissent plutôt que d’attendre une crise.

En résumé, la communauté internationale se trouve à un carrefour : des efforts sont en cours pour établir des lignes directrices et peut-être de nouvelles lois pour l’IA militaire, mais le paysage est fragmenté. Certains pays préfèrent des normes non contraignantes à une législation stricte, et les grandes puissances restent prudentes face à tout ce qui pourrait limiter leur liberté d’action militaire. Néanmoins, la trajectoire est claire : le rôle de l’IA dans la guerre figure désormais en bonne place à l’agenda mondial du contrôle des armements et de l’éthique. Que ce soit par un traité en 2026, des codes de conduite volontaires ou des politiques unilatérales, les prochaines années verront probablement de nouvelles tentatives pour maîtriser les risques de l’IA militaire avant que la technologie ne devienne trop répandue pour être contenue.

Perspectives d’experts sur l’IA militaire

Des leaders de la défense, de la technologie et de l’éthique ont exprimé une variété d’opinions sur la montée de l’IA dans la guerre. Nous mettons ici en avant quelques citations notables d’experts et de responsables, illustrant la diversité des points de vue :

  • Point de vue des responsables de la défense : « Alors que nous nous sommes concentrés sur l’intégration responsable et rapide de l’IA dans nos opérations, notre principale motivation a été simple : parce que cela améliore notre avantage décisionnel. Du point de vue de la dissuasion et de la défense contre l’agression, les systèmes dotés d’IA peuvent accélérer la rapidité des décisions des commandants et améliorer la qualité et la précision de ces décisions. »Kathleen Hicks, secrétaire adjointe à la Défense des États-Unis defense.gov. (Soulignant la valeur de l’IA pour des décisions militaires plus rapides et meilleures.)
  • Avertissement des chercheurs en IA : « Les gouvernements ne veulent pas s’autoréguler en matière d’armes autonomes létales, et il y a une course aux armements entre tous les grands fournisseurs d’armes – comme les États-Unis, la Chine, la Russie, la Grande-Bretagne, Israël… [Les armes létales à base d’IA] sont un danger à court terme. »Dr Geoffrey Hinton, pionnier de l’IA et lauréat du prix Turing (2024) lethbridgenewsnow.com lethbridgenewsnow.com. (Avertissant qu’une compétition mondiale pour développer des armes à IA est en cours, sans régulation suffisante.)
  • Perspective d’un éthicien/humanitaire : « Les systèmes d’armes autonomes… soulèvent des préoccupations éthiques, juridiques, opérationnelles, morales et sécuritaires fondamentales. Confier à une machine le pouvoir de vie ou de mort sur un être humain franchit une limite morale inacceptable. »Bénédicte Jeannerod, Human Rights Watch (commentaire de 2024) hrw.org hrw.org. (Affirmant que les robots tueurs violent le cadre moral et juridique de la guerre et devraient être limités.)
  • Point de vue d’un stratège militaire : « Nous assistons à un changement fondamental et sans précédent dans le caractère de la guerre… principalement porté par la technologie [comme l’IA]. Le problème critique sur le champ de bataille est le temps. Et l’IA sera capable de faire des choses beaucoup plus compliquées, beaucoup plus précisément et beaucoup plus rapidement que les êtres humains. Si un humain est dans la boucle, vous perdrez… Vous pouvez superviser ce que fait l’IA, mais si vous essayez d’intervenir, vous allez perdre. »Frank Kendall, Secrétaire de l’US Air Force (citant un résumé de ses propos sur l’IA au Reagan Forum 2023) defensescoop.com. (Notant que la rapidité de l’IA impose une nouvelle manière de faire la guerre où un retard d’intervention humaine pourrait signifier la défaite – même si les humains doivent toujours superviser l’IA.)
  • Point de vue des partisans du contrôle des armements : « Il serait moralement répugnant que le monde n’interdise pas les machines autonomes capables de tuer sans contrôle humain… Ce n’est pas seulement politiquement inacceptable, je pense que cela devrait être interdit par le droit international. »António Guterres, Secrétaire général de l’ONU (2018) reuters.com. (Appelant à une interdiction mondiale des armes létales entièrement autonomes pour des raisons morales et de sécurité.)

Ces perspectives montrent un spectre : les chefs militaires reconnaissent le pouvoir transformateur de l’IA et veulent l’exploiter (tout en cherchant à garder le contrôle humain), les technologues et les éthiciens mettent en garde contre une précipitation sans garde-fous, et les figures internationales réclament des règles pour éviter les pires scénarios. Le point commun est que tout le monde reconnaît que l’IA aura un impact profond sur la guerre – le débat porte sur la manière d’orienter cet impact. Comme l’a dit l’ancien PDG de Google Eric Schmidt, « Nous sommes à un moment où [l’IA] va changer la guerre… L’essentiel est de garder une longueur d’avance et aussi de s’assurer qu’elle soit utilisée d’une manière conforme à nos valeurs. »

Études de cas : l’IA en action dans des contextes militaires

Pour illustrer la discussion, voici plusieurs exemples et études de cas réels de ces dernières années où l’IA a été appliquée (ou mal appliquée) dans des contextes militaires ou de conflit :

  • Guerre en Ukraine (2022–2024) – Renseignement et ciblage assistés par l’IA : Le conflit en cours en Ukraine a été qualifié de première guerre « numérique et augmentée par l’IA ». Les forces ukrainiennes, avec le soutien de l’OTAN, ont exploité des plateformes d’IA pour obtenir un avantage en matière de renseignement et de frappes de précision. Notamment, les États-Unis ont fourni à l’Ukraine des outils avancés comme l’IA du Project Maven et le système d’analyse de Palantir, qu’elle a utilisés pour intercepter et interpréter les communications militaires russes et identifier des cibles. Selon des rapports, ce renseignement assisté par l’IA a permis à l’Ukraine de mener des frappes très efficaces contre des unités russes, servant en quelque sorte de test en conditions réelles de l’IA militaire occidentale face aux forces russes jamestown.org. L’incapacité de la Russie à contrer ces tactiques augmentées par l’IA au début de la guerre a démontré la puissance de la fusion entre données de surveillance et apprentissage automatique. Dès 2023, la Russie a commencé à déployer davantage de drones et de moyens de guerre électronique pour atténuer cet avantage, mais l’expérience ukrainienne a montré qu’une armée plus petite, dotée d’un soutien décisionnel par IA, pouvait rivaliser avec un adversaire traditionnellement plus puissant.
  • Israël et Gaza (2021–2023) – Systèmes de ciblage algorithmiques : Les Forces de défense israéliennes (FDI) ont intégré l’IA dans leurs opérations de combat, notamment pour la sélection des cibles lors des frappes aériennes. Lors des conflits à Gaza, les FDI auraient utilisé un processus de ciblage basé sur l’IA surnommé « Gospel » et « Lavender », capable de croiser rapidement des bases de données de renseignement et des flux de surveillance pour générer des recommandations de frappes hrw.org. Ces systèmes auraient marqué des milliers de cibles potentielles (tels que des militants présumés ou des sites de lancement de roquettes) avec une intervention humaine minimale, après quoi des officiers humains examinaient et validaient les frappes. Israël a affirmé que cela avait permis d’accélérer les opérations contre les cibles militantes. Cependant, les critiques soutiennent qu’un tel ciblage piloté par algorithme, surtout au sein de populations civiles denses, risque d’abaisser le seuil de déclenchement des frappes et d’augmenter les pertes civiles si les données sont erronées. En effet, lors du conflit de Gaza en mai 2021 puis à nouveau en 2023, des questions ont été soulevées concernant des frappes erronées – suscitant des inquiétudes sur la dépendance des FDI aux signaux de l’IA. Ce cas illustre à la fois l’attrait et le danger de la guerre algorithmique : l’IA peut accélérer de façon spectaculaire les chaînes de destruction, mais si elle n’est pas rigoureusement contrôlée, elle peut aussi accélérer les erreurs tragiques.
  • Test du Blue Grass Army Depot (2024) – Sécurité et surveillance par IA : En septembre 2024, au Blue Grass Army Depot dans le Kentucky, l’armée américaine a mené un projet pilote d’un système de sécurité physique piloté par l’IA. Le dépôt a testé le logiciel d’IA « Scylla » connecté à ses caméras de vidéosurveillance et à ses patrouilles de drones, en simulant des intrusions. Dans un scénario de démonstration, deux figurants ont franchi le périmètre et se sont battus ; un garde humain a hésité, incertain de ce qui se passait dans l’obscurité. Mais le système d’IA a analysé le flux vidéo en temps réel : il a reconnu la situation comme une lutte non autorisée, a identifié une personne comme hostile connue, a détecté l’autre comme un agent de sécurité, et a immédiatement alerté les autorités de la base avec un rapport détaillé defense.gov defense.gov. L’IA a même mis en évidence l’assaillant et l’arme sur le moniteur. Lors d’un autre essai, Scylla a repéré un individu armé escaladant une tour d’eau sur la base et a atteint plus de 96 % de précision pour distinguer les menaces des activités bénignes defense.gov. Ce cas a démontré comment l’IA peut renforcer le personnel de sécurité en surveillant les flux 24h/24 et en réduisant les fausses alertes (un problème majeur avec les capteurs de mouvement). Le secrétaire adjoint à la Défense supervisant le test l’a salué comme « une avancée considérable dans la protection des actifs critiques » defense.gov. Cependant, même dans ce cas contrôlé, le scénario était soigneusement scénarisé. Il reste à voir comment de tels systèmes se comportent face à des adversaires humains rusés ou à des situations inédites. Néanmoins, Blue Grass a offert un aperçu des usages à court terme de l’IA : protéger les bases, les installations nucléaires et d’autres sites sensibles grâce à une surveillance autonome capable de réagir plus vite que les humains.
  • DARPA ACE et les combats aériens IA (2020–2023) – L’homme contre la machine dans les airs : Une étude de cas fascinante sur l’IA militaire est la série d’essais menés par la DARPA dans le cadre du programme Air Combat Evolution (ACE). En août 2020, la DARPA a organisé les AlphaDogfight Trials – une compétition virtuelle où un agent IA a battu un pilote de chasse F-16 expérimenté lors d’un combat simulé, 5-0 defensescoop.com. Sur cette base, la DARPA est passée à des essais en vol réels. Fin 2022 et en 2023, ils ont utilisé un F-16 spécialement modifié (le X-62A Vista) comme banc d’essai pour des “pilotes” IA. Lors d’un test historique en septembre 2023 à la base aérienne d’Edwards, un agent IA a piloté de façon autonome le X-62A lors d’un combat aérien en visibilité directe contre un autre F-16 piloté par un humain defensescoop.com. Les engagements impliquaient des manœuvres de base de combat aérien à partir de positions défensives et offensives, et se terminaient par des affrontements “nez à nez” à courte distance – un scénario très exigeant. De façon impressionnante, l’IA a contrôlé l’avion à travers ces manœuvres dynamiques sans incident, et bien qu’un pilote de sécurité soit à bord, il n’a pas eu besoin d’intervenir defensescoop.com. Cela a marqué le tout premier véritable combat aérien entre un humain et une IA à bord d’un avion de chasse. Bien que les résultats sur le “vainqueur” restent classifiés, des responsables de l’US Air Force ont salué cette expérience comme la preuve que l’IA peut réagir et piloter en toute sécurité dans des situations de combat complexes defensescoop.com defensescoop.com. Le secrétaire Frank Kendall a noté que ces succès ont influencé l’engagement de l’US Air Force à développer des drones autonomes d’accompagnement (programme CCA) defensescoop.com. Le cas DARPA ACE montre le potentiel de l’IA dans des environnements à grande vitesse et à forts enjeux. Il illustre aussi le paradigme de la collaboration homme-IA : lors des essais, un pilote humain dans un avion travaillait avec l’IA dans l’autre comme partenaire. La grande leçon à retenir est que l’IA pourrait bientôt gérer les combats aériens ou les manœuvres de routine, libérant ainsi les pilotes humains pour se concentrer sur la gestion globale de la bataille – une vision qui devrait se concrétiser dans la prochaine génération de la guerre aérienne.
  • Frappe de drone autonome en Libye (2020) – Première utilisation létale de l’IA ? En mars 2020, lors de la guerre civile en Libye, un incident (rapporté dans un rapport d’un groupe d’experts de l’ONU) a eu lieu où un drone turc Kargu-2 loitering munition aurait attaqué des forces de l’Armée nationale libyenne en retraite sans commande spécifique. Le drone, qui dispose d’un mode autonome, aurait verrouillé une cible sur un combattant et pourrait l’avoir tué stopkillerrobots.org. Si cela est confirmé, il s’agirait du premier cas d’une arme autonome ayant pris une vie humaine en temps de guerre. L’événement, révélé en 2021, a provoqué une alarme internationale – il suggérait qu’une arme à IA « tire et oublie » avait choisi de manière indépendante d’engager des cibles humaines. Certains experts ont averti que la formulation du rapport était ambiguë, mais la simple possibilité a suffi à intensifier les appels à l’ONU pour interdire de tels systèmes. Ce cas libyen est souvent cité par les défenseurs comme un avertissement : une fois déployés, ces drones agiront de façon autonome et les risques ne sont pas théoriques. Cela souligne l’urgence de clarifier le degré d’autonomie accordé aux systèmes létaux sur le terrain.

Chacune de ces études de cas offre une fenêtre concrète sur les opportunités et les dangers de l’IA militaire – des champs de bataille d’Ukraine et de Gaza aux terrains d’essai américains et au-delà. Elles montrent que l’IA n’est plus seulement des diapositives PowerPoint ou des démonstrations en laboratoire ; elle influence les résultats des conflits aujourd’hui. À mesure que la technologie se propage, de tels exemples ne feront qu’augmenter, renforçant l’importance des discussions actuelles sur la manière de réguler l’IA en temps de guerre.

Perspectives d’avenir : les 5 à 10 prochaines années

En regardant vers l’avenir, l’intelligence artificielle est sur le point de jouer un rôle encore plus important dans les affaires militaires au cours de la prochaine décennie. Les experts s’accordent généralement à dire que nous sommes à l’aube de changements significatifs dans la façon dont les guerres seront menées, grâce à l’IA et à l’automatisation. Voici quelques éléments clés du paysage probable à l’horizon 2030 :

  • La guerre intégrée à l’IA devient la norme : Dans les années à venir, on s’attend à ce que l’IA soit intégrée dans presque tous les aspects des opérations militaires. Cela signifie des réseaux de champ de bataille omniprésents où l’IA relie capteurs, commandants et tireurs en temps réel. Le concept de « chaque capteur, chaque tireur » sera rendu possible par une IA capable de traiter instantanément les données provenant de satellites, drones, radars et appareils des soldats pour fournir une image en direct du champ de bataille. Les futurs centres de commandement pourraient disposer d’assistants IA suggérant les mouvements optimaux ou signalant des schémas cachés dans le chaos du combat. Comme l’a observé l’ancien président des chefs d’état-major américains Mark Milley, « vous avez une quantité massive de capteurs… Ce que l’IA fera [c’est] absorber cette information, la corréler et la transformer en renseignement exploitable » pour les troupes washingtonpost.com. La guerre tournera de plus en plus autour de la suprématie des données – le camp capable de collecter, d’interpréter et d’agir sur l’information le plus rapidement aura l’avantage. L’IA est l’outil pour y parvenir, bien au-delà de ce que les logiciels traditionnels ou les humains seuls pourraient gérer.
  • Prolifération des systèmes autonomes et sans pilote : La période 2025–2035 verra probablement une augmentation des drones, véhicules et robots autonomes dans tous les domaines. Les forces aériennes commenceront à déployer des drones « loyal wingman » qui voleront aux côtés des avions pilotés pour fournir une couverture de capteurs ou effectuer des frappes sur commande. Les États-Unis, par exemple, visent à déployer des drones de combat collaboratifs pour accompagner leurs chasseurs de nouvelle génération d’ici le début des années 2030 defensescoop.com. Sur terre, les véhicules de combat robotisés (chars ou véhicules blindés avec divers degrés d’autonomie) seront testés et pourraient être déployés de manière limitée pour la surveillance ou le soutien. Des essaims de petits drones autonomes (aériens ou terrestres) devraient s’occuper de tâches telles que la recherche de zone, la désignation de cibles ou la saturation des défenses aériennes ennemies. En mer, des prototypes de navires de guerre et de sous-marins sans équipage sont déjà en phase d’essai – d’ici 2030, l’utilisation régulière de navires de surface sans pilote pour la patrouille ou la lutte contre les mines, ainsi que de sous-marins sans équipage de très grande taille pour la reconnaissance, pourrait devenir courante. La collaboration homme-machine sera essentielle : les humains superviseront de plus en plus des équipes de systèmes robotiques. Un général israélien a décrit les unités du futur comme « quelques hommes et beaucoup de machines. » Cette tendance pourrait compenser les pénuries de main-d’œuvre et permettre des opérations dans des environnements extrêmement contestés ou dangereux sans risquer de personnel. Cependant, l’autonomie totale (surtout pour l’usage de la force létale) sera probablement introduite avec prudence – la plupart des nations garderont un humain dans ou au-dessus de la boucle pour l’emploi des armes durant cette période, en raison de préoccupations éthiques et pratiques.
  • « Hyperguerre » : temps de décision compressés et tactiques pilotées par l’IA : À mesure que l’IA permet des opérations plus rapides, les stratèges militaires prévoient l’émergence de « l’hyperguerre », où les engagements se déroulent à des vitesses que les décideurs humains seuls ne peuvent suivre. D’ici 2030, nous pourrions voir des décisions sur le champ de bataille – des réponses cybernétiques défensives aux manœuvres automatisées de drones – se produire en quelques secondes ou microsecondes. Cela pourrait imposer un changement doctrinal : au lieu de tout gérer dans le détail, les commandants fixeront des objectifs et des paramètres pour les systèmes d’IA, qui exécuteront ensuite dans ces limites. Par exemple, une IA de défense aérienne pourrait être autorisée à abattre des missiles entrants de façon autonome, car attendre l’approbation humaine serait trop lent. Le risque est que des IA adverses puissent s’enfermer dans des boucles d’escalade (pensez à des spirales de représailles automatisées). Les armées auront besoin de liaisons de communication robustes et de « boutons d’arrêt d’urgence » pour garder le contrôle. On peut aussi s’attendre à ce que l’IA permette de nouvelles tactiques – comme des essaims utilisant des comportements émergents pour dérouter les défenses ennemies, ou l’IA générant des stratégies de tromperie en guerre de l’information. La formation et la doctrine devront évoluer pour que les professionnels militaires apprennent à faire confiance, mais à vérifier, les résultats de l’IA. Ceux qui s’adapteront auront un avantage ; ceux qui ne le feront pas risquent d’être submergés par le rythme des conflits futurs. Comme l’a averti le secrétaire de l’Air Force Kendall, « si un être humain est dans la boucle, vous perdrez… vous pouvez superviser l’IA, mais si vous essayez d’intervenir [trop], vous allez perdre » defensescoop.com. Son point de vue est que le combat du futur pourrait exiger de céder une partie du contrôle à la vitesse des machines – une réalité controversée mais probable d’ici 5 à 10 ans.
  • La course aux armements en IA s’intensifie (et s’étend) : La compétition stratégique dans le domaine de l’IA va probablement s’accentuer. L’engagement de la Chine à devenir le leader mondial de l’IA d’ici 2030 signifie que l’on peut s’attendre à ce que Pékin continue d’investir massivement dans la R&D militaire en IA, de l’IA augmentée par le quantique à l’IA pour la guerre spatiale et cybernétique defensenews.com. Les États-Unis, de leur côté, investiront massivement pour conserver leur avance (la Commission nationale de sécurité sur l’IA a recommandé que les États-Unis augmentent les dépenses fédérales de R&D en IA à 32 milliards de dollars par an d’ici 2026, par exemple reuters.com). La Russie tentera de tirer parti de ses atouts de niche (peut-être dans l’IA pour la guerre électronique ou les systèmes autonomes à moindre coût) pour rester pertinente. De nouveaux acteurs comme la Corée du Sud, la Turquie, l’Inde pourraient émerger comme des producteurs d’armes en IA importants – notamment dans le domaine des drones, étant donné la diffusion de la technologie UAV. On pourrait également voir les capacités en IA se diffuser vers des acteurs non étatiques via le marché noir ou des approches DIY (par exemple, des groupes terroristes utilisant des bombes de drones semi-autonomes guidées par une reconnaissance d’objets IA basique). Cette diffusion signifie que l’environnement de sécurité internationale pourrait devenir plus volatile : de nombreux acteurs dotés d’armes intelligentes augmentent les risques d’utilisation. Un traité de contrôle des armements d’ici 2026 (s’il est conclu) pourrait ralentir la prolifération des systèmes autonomes les plus dangereux, mais si les grandes puissances restent en dehors d’un tel traité ou si celui-ci est faible, la course aux armements continuera. L’IA pourrait même stimuler de nouvelles formes de compétition comme les contre-mesures IA – par exemple, le développement d’IA capables de tromper ou de brouiller l’IA adverse. D’ici 2030, il ne s’agira peut-être plus seulement de savoir qui possède l’IA, mais de savoir quelle IA est mieux entraînée, plus robuste et mieux protégée contre le piratage. Cette course s’étendra également aux domaines économique et technologique, car les avancées militaires en IA sont liées à la puissance nationale globale en IA (talents, technologies des semi-conducteurs, etc.).
  • Défis en matière de gouvernance et de « sécurité de l’IA » : À l’inverse de l’adoption rapide, la prochaine décennie verra probablement aussi des accidents, des incidents évités de justesse ou des controverses publiques qui forceront à la réflexion. Il est possible que d’ici 5 à 10 ans, un incident notable – par exemple, un dysfonctionnement d’un système autonome causant des victimes involontaires ou une IA interprétant mal un ordre – se produise, ce qui pourrait alors générer une réaction publique ou des appels urgents à la régulation. Les gouvernements devront établir des politiques et des lois plus claires pour l’utilisation de l’IA. On pourrait voir émerger quelque chose de similaire à l’évolution des normes à l’ère nucléaire : par exemple, des accords pour ne pas laisser l’IA prendre certaines décisions critiques (comme le lancement d’armes nucléaires), à l’image du tabou actuel sur le lancement nucléaire entièrement automatisé. En effet, les États-Unis ont déjà affirmé que toute décision d’employer des armes nucléaires doit rester une décision humaine reuters.com, et on peut prévoir que cela devienne une norme internationale formelle. La vérification des traités sur l’IA sera un défi – contrairement à l’interdiction d’un objet physique, interdire un algorithme est complexe. Il faut donc s’attendre à des approches créatives, comme des mesures de confiance, des normes de test partagées, ou l’accès des inspecteurs aux données d’entraînement de l’IA sous certaines conditions. La communauté technologique travaillera aussi sur des mécanismes de « sécurité de l’IA » – à l’image des missiles dotés de fonctions d’autodestruction, les futurs drones autonomes pourraient être tenus d’avoir des liaisons de communication sécurisées et un géorepérage pour prévenir tout comportement indésirable. L’OTAN et les nations partageant les mêmes valeurs continueront probablement à affiner les lignes directrices éthiques et peut-être même les processus de certification pour l’IA militaire (s’assurer que les systèmes sont testés contre les biais, pour la conformité au DIH, etc.). Néanmoins, si les relations entre grandes puissances restent tendues, les progrès en matière de gouvernance mondiale pourraient prendre du retard par rapport au développement technologique. La période jusqu’en 2030 est donc cruciale : c’est une fenêtre où les règles peuvent être façonnées avant que l’IA ne soit trop profondément ancrée dans les arsenaux.
  • Réorganisation des armées pour l’ère de l’IA : Enfin, attendez-vous à des changements structurels au sein des forces armées à mesure qu’elles s’adaptent. De nouvelles unités spécialisées dans la guerre algorithmique, l’ingénierie des données et les opérations cyber-IA deviendront courantes. Les branches traditionnelles (Armée de Terre, Marine, Armée de l’Air) pourraient voir leurs rôles converger à mesure que les opérations multi-domaines sont rendues possibles par l’intégration de l’IA. Les combattants humains devront acquérir de nouvelles compétences – le soldat de demain devra peut-être être en partie codeur ou analyste de données. Les cursus de formation incluront un travail étroit avec les outils d’IA. Les structures de commandement pourraient s’aplatir quelque peu, l’information issue de l’IA arrivant directement à des échelons plus petits. Il pourrait même y avoir un « assistant » IA affecté à chaque escouade ou équipage de char, comme la radio l’était au siècle dernier. Les simulations de wargame pilotées par l’IA alimenteront le développement doctrinal dans une boucle itérative. Certains analystes, comme l’ancien secrétaire à la Marine américaine Richard Danzig, ont envisagé qu’en 2030 nous verrons des équipes de commandement « centaures » – combinant humains et IA – prendre des décisions opérationnelles. Parallèlement, le recrutement pourrait mettre l’accent sur les compétences STEM, et la collaboration avec les entreprises technologiques sera vitale (les armées pourraient intégrer des ingénieurs IA ou s’associer à l’industrie via l’acquisition rapide de mises à jour logicielles, etc.). Sur le plan culturel, les forces armées devront composer avec la confiance envers l’IA : les jeunes officiers pourraient l’adopter, les plus anciens rester sceptiques. Un changement générationnel pourrait survenir à mesure que ceux ayant grandi avec le numérique prendront le commandement. En somme, les armées qui adapteront leur structure et leur culture pour maximiser le potentiel de l’IA (sans perdre le jugement et le leadership humains essentiels) domineront probablement celles qui ne le feront pas.

En conclusion, les 5 à 10 prochaines années seront une période de transformation. L’IA est sur le point de remodeler la conduite de la guerre, peut-être aussi profondément que la poudre à canon, l’aviation ou les armes nucléaires l’ont fait à d’autres époques. On peut imaginer des champs de bataille où des essaims de systèmes autonomes explorent et frappent, où les commandants s’appuient sur des copilotes IA pour des décisions en une fraction de seconde, et où la logistique est largement automatisée – le tout soutenu par des réseaux fonctionnant à la vitesse des machines. Dans le même temps, l’humanité devra relever le défi de s’assurer que ces technologies puissantes ne nous mènent pas à la catastrophe. D’ici 2035, nous aurons probablement vu à la fois des victoires impressionnantes permises par l’IA et des récits édifiants de ses écueils. L’espoir est qu’à travers des politiques prudentes et une coopération internationale, le monde puisse récolter les bénéfices défensifs de l’IA (comme la réduction des risques humains et la prévention des attaques surprises) tout en évitant ses pires dangers (comme des guerres involontaires ou une violence incontrôlée). Comme l’a justement déclaré un rapport de l’OTAN, « divers pays et organisations internationales sont déjà engagés dans des efforts pour naviguer entre les opportunités et les défis de l’IA » dans le domaine militaire nato-pa.int – la navigation au cours de cette décennie déterminera si l’IA dans la guerre nous rend plus sûrs ou moins. Une chose est certaine : l’IA sera au cœur du futur de la guerre, et les mesures que nous prenons aujourd’hui façonneront ce futur, pour le meilleur ou pour le pire.

Sources : Reliées tout au long du rapport via des hyperliens vers des publications militaires officielles, des médias d’information réputés, des analyses d’instituts de recherche et des commentaires d’experts pour vérification et approfondissement. nato-pa.int defense.gov theverge.com breakingdefense.com jamestown.org hrw.org

Tags: ,