Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

Comment l’intelligence artificielle va transformer la guerre

Éditoriaux
|
Date de publication
|
Image de couverture de la publication
noel_comment_ia_transforme_la_guerre_2018_page_1.jpg
Accroche

L’intelligence artificielle (IA) est une technologie en plein développement qui fascine et inquiète à la fois. Elle fascine par son potentiel, si l’on en croit le volontarisme des grandes puissances à en maîtriser rapidement l’usage. 

Image principale
edito_jcn_ai.jpg
Corps analyses

Les États-Unis et la Chine semblent ainsi engagés dans une course pour affirmer leur supériorité capacitaire dans ce domaine. Elle effraie en même temps car elle pourrait assurer de plus en plus de tâches exigeantes et laisse entrevoir, à terme, un dépassement des capacités humaines. Comprendre les effets de l’IA sur l’art de la guerre requiert donc de faire la part entre les applications actuelles, avec un impact réel mais limité (IA faible) et celles à plus long terme, dont on ignore la faisabilité, mais qui pourraient transformer notre manière d’appréhender la guerre (IA forte).

 

Qu’est-ce que l’IA ?

L’IA regroupe un ensemble de techniques qui sont combinées pour assurer des tâches cognitives sur un projet donné, avec une performance égale ou supérieure à celle des êtres humains. Deux procédés se sont pour l’instant imposés :

  • Le premier consiste à suivre des raisonnements logiques. L’IA explore toutes les voies possibles à partir d’un problème posé et choisit le chemin optimal. Un tel processus s’avère toutefois inadapté dans de nombreux cas, comme lorsque le problème devient trop complexe.
  • Une technique alternative, appelée apprentissage profond, a été explorée en écho à ces limites. À mesure qu’un opérateur présente à une machine un objet à reconnaître ou à classer et qu’il confirme ou infirme la décision de l’ordinateur, les algorithmes limitent leur marge d’erreur en se reconfigurant. Les logiciels atteignent des performances qui dépassent celles des hommes en multipliant les essais. Les machines peuvent même apprendre et se perfectionner seules pour certaines fonctions.

Trois paramètres expliquent l’expansion récente de l’IA :

  • La qualité des algorithmes s’améliore (progrès de la recherche en informatique, nouveaux langages de programmation, etc.) ;
  • Les puissances de calcul des processeurs augmentent, même si on constate depuis peu un ralentissement de la « loi de Moore » ;
  • Enfin, et c’est le facteur essentiel, la quantité de données disponibles pouvant alimenter les machines pour leur apprentissage a explosé en l’espace de dix ans.

Des applications militaires centrées sur l’information

À court terme, le principal usage militaire de l’IA sera de donner du sens à l’incroyable masse de données recueillies par des capteurs de plus en plus nombreux. L’évolution de grandeurs physiques comme les températures, les pressions des systèmes de propulsion sera exploitée pour améliorer la maintenance. Les images (photos ou vidéos), les émissions électromagnétiques, les flux informatiques, les mots (par interception de données textuelles ou par reconnaissance vocale) pourront désormais être détectés, traités, fusionnés et analysés par des logiciels spécialisés à des fins de renseignement.

Maîtriser l’ensemble de ces flux de données offrira des ressources considérables. La révolution des technologies de l’information laissait présager à la fin du XXsiècle la possibilité de recueillir des données physiques sur le dispositif ennemi, grâce à la dissémination de capteurs sur le champ de bataille. Un général compétent pouvait alors espérer profiter de cette supériorité informationnelle pour imposer sa manœuvre ou détruire les objectifs ennemis essentiels. L’IA prolonge ce processus, en élargissant cette supériorité au champ cognitif, et en prenant en compte les capacités des systèmes d’arme, la manière de commander des généraux ennemis ou les doctrines adverses. Grâce à la fusion de ces divers éléments, elle pourra analyser dans la durée le dispositif ennemi, anticiper certains mouvements et éclaircir encore un peu plus le brouillard de la guerre.

La qualité des prévisions réalisées par l’IA variera en fonction des données disponibles, de leur pertinence mais aussi de la complexité des systèmes surveillés. À ce titre, les milieux aériens, maritimes ou spatiaux seront plus simples à appréhender car la présence humaine y est limitée et dépendante d’engins qui obéissent à des lois physiques parfaitement connues. La valeur ajoutée de l’IA sera donc maximale dans la conquête rapide de ces milieux, ce qui facilitera ensuite d’éventuelles opérations au sol.

Sur terre, les manœuvres des grandes formations, contraintes par la logistique et les procédures organisationnelles, seront facilement déchiffrables par l’IA. À l’autre extrémité, les individus deviendront aussi plus prévisibles pour peu qu’un profilage de leur personnalité puisse être établi et utilisé à des fins opérationnelles – à la manière des algorithmes qui proposent des promotions ciblées aux internautes en fonction de leur historique en ligne. La collecte des données personnelles s’affirme d’ores et déjà comme l’une des préoccupations stratégiques majeures du XXIe siècle.

Si ce potentiel de l’IA semble prometteur, certains freins pourraient retarder son développement. La recherche dans le domaine de l’IA a déjà connu des périodes de stagnation. Elles pourraient encore advenir, refrénant sensiblement l’élan actuel. Par ailleurs, l’apprentissage des machines dépend des informations qui leur sont fournies. Or celles-ci sont souvent sélectionnées par des opérateurs ou des responsables bridés par des biais cognitifs, organisationnels, bureaucratiques ou culturels. Les IA pourraient proposer des solutions imparfaites, mais qui confortent les orientations de ceux qui les éduquent. Enfin, des contre-stratégies seront immanquablement élaborées pour profiter des défauts des logiciels. L’IA, comme toute technologie, ne saurait être infaillible.

Par-delà la donnée : l’automatisation

Une IA pourra non seulement trier des données ou analyser une situation, mais aussi commander des robots et leurs logiciels pour les faire agir. La présence de l’homme dans cette boucle purement informatique d’observation, de décision et d’action peut être imposée pour surveiller les choix de la machine ou pour décider finalement à sa place. C’est la volonté des partisans de l’« humanisme militaire » qui refusent d’accorder aux machines une trop grande part d’autonomie, notamment quand la vie d’individus, civils ou combattants, est en jeu, par crainte d’une perte de contrôle ou en raison de préférences éthiques et culturelles. Cette persistance de l’homme sur le champ de bataille pourrait bien devenir, d’un point de vue technique ou opérationnel, inutile voire contre-productive dans les cas où la vitesse des armes employées et la complexité des situations défieraient ses capacités cognitives.

Trois modèles d’automatisation semblent se dessiner qui font varier l’importance de la place de l’homme ou de l’IA dans les systèmes d’arme. Ils ne nécessitent pas la même maturité technologique, mais vont probablement entrer en concurrence.

  • « L’équipier fidèle » est le modèle qui soumet le plus la machine à l’humain. Un robot demeure à faible distance de l’engin piloté par son maître. Il l’assiste dans ses différentes tâches, peut emporter des capteurs supplémentaires et sert comme réserve éventuelle d’énergie, de munitions. Les seules initiatives qu’il prend sont celles ordonnées par son maître.
  • Le « flocking » envisage une forme d’autonomie plus large dans laquelle un engin dirigé par un être humain est accompagné par un groupe de robots, constituant une sorte de troupeau. Ces derniers peuvent s’éloigner de leur maître et se voir assigner des tâches autonomes. Selon les orientations du chef, ils peuvent contrôler une zone lointaine et recevoir, dans certaines conditions, une délégation de tir. Le « berger » peut alors se concentrer sur son objectif et faire face à d’éventuelles situations imprévues tandis que les robots traitent les événements pouvant être anticipés.
  • Enfin, le dernier modèle, « Terminator », correspond à une automatisation complète. L’IA est chargée d’une tâche et en gère la planification comme l’exécution. Elle oriente par exemple l’action d’un essaim de petits drones (swarming) ou commande des robots équipés d’armes à énergie dirigée ou de missiles hyper véloces dans le cas de plates-formes plus complexes. Elle privilégie des modes d’action qu’elle sélectionne à partir des retours d’expérience des engagements précédents, des milliers de simulations d’attaque qu’elle aura pratiquées contre elle-même, et de ce qu’elle observe en temps réel. L’efficacité au combat de ces différentes formes d’automatisation sera sûrement le critère essentiel pour savoir lequel s’imposera.

Parallèlement à cette contribution de l’IA aux opérations de combat, les machines autonomes sont appelées à jouer un rôle de plus en plus important dans les fonctions de soutien des matériels mais aussi dans la gestion des soldats. L’IA pourrait par exemple contrôler l’état physique d’unités élémentaires ou d’équipages, mesurant les fonctions vitales des individus pendant les combats pour anticiper leur fatigue ou constater leur incapacité. Elle pourrait aussi tenir une fonction sociale, échangeant avec les soldats au travers de robots. Elle irait jusqu’à recueillir leurs confidences, afin de mieux apprécier leur moral, prodiguer des encouragements adaptés en période de tension ou repérer des comportements particuliers, annonciateurs de défaillances ou de stress post-traumatique. La hiérarchie pourrait être alertée plus facilement et prendre les mesures préventives ou correctives nécessaires.

De l’IA « forte » au changement de la nature de la guerre

Au fur et à mesure que la technologie se rapprochera d’une IA « forte », capable de comprendre, puis de résoudre de manière entièrement autonome des problèmes complexes, la question de la place du chef militaire se posera avec de plus en plus d’acuité.

La place croissante de l’IA dans les processus de décision poserait aux responsables de nouveaux dilemmes liés à la délégation et au contrôle de la force. D’une part, il est difficile de comprendre comment une IA construit son raisonnement. Cette méconnaissance soulèvera inévitablement un problème de confiance dans la mesure où la responsabilité morale, voire légale, reposera sur l’humain faisant le choix de suivre – ou non – les recommandations de la machine. Le cheminement décisionnel peut éventuellement être reconstruit a posteriori en scrutant les calculs de la machine, mais rien ne permettra une telle compréhension lorsqu’une situation urgente réclamera une décision consolidée.

D’autre part, les IA ont parfois sélectionné des coups très inattendus et déroutants lorsqu’elles affrontaient des adversaires humains lors de jeux ou de simulations. Leurs manœuvres se sont pourtant révélées victorieuses. Des décideurs politiques et militaires s’interroger aient inévitablement avant de s’en remettre complètement aux choix d’une machine. Ils pourraient même refuser de suivre une voie qui leur semblerait aberrante, bien qu’elle puisse potentiellement mener au succès.

L’avènement d’une IA forte pourrait à terme aller jusqu’à bouleverser la relation entre le politique et le militaire au niveau stratégique. Une IA forte bien programmée pourrait proposer au décideur civil des options optimisées pour répondre le mieux possible aux objectifs politiques. Elle pourrait alors faire disparaître « la libre activité de l’âme » qui caractérise chez Clausewitz l’action du stratège, en devenant plus créative et plus précise que celui-ci pour atteindre les buts fixés par le politique. « L’entendement pur » qui caractérise le politique s’imposerait à la sphère militaire, de sorte que les modes d’action adoptés s’accorderaient le plus harmonieusement possible avec les fins politiques. À l’instar du soldat remplacé par les robots, le général perdrait à son tour progressivement de son importance.

 

Decoration

Contenu disponible en :

Régions et thématiques

ISBN / ISSN

978-2-36567-936-7

Partager

Téléchargez l'analyse complète

Cette page ne contient qu'un résumé de notre travail. Si vous souhaitez avoir accès à toutes les informations de notre recherche sur le sujet, vous pouvez télécharger la version complète au format PDF.

Comment l’intelligence artificielle va transformer la guerre

Decoration
Auteur(s)
Photo
Jean-Christophe NOËL

Jean-Christophe NOËL

Intitulé du poste

Chercheur associé, Centre des études de sécurité de l'Ifri

Image principale
Un soldat contemplant un coucher de soleil sur un véhicule blindé de combat d’infanterie
Centre des études de sécurité
Accroche centre

Héritier d’une tradition remontant à la fondation de l’Ifri, le Centre des études de sécurité de l'Ifri fournit aux décideurs publics et privés ainsi qu’au grand public les clefs de compréhension des rapports de force et des modes de conflictualité contemporains et à venir. Par son positionnement à la jointure du politique et de l’opérationnel, la crédibilité de son équipe civilo-militaire et la diffusion large de ses publications en français et en anglais, le Centre des études de sécurité constitue dans le paysage français des think tanks un pôle unique de recherche et d’influence sur le débat de défense national et international.

Réarmement nucléaire en Russie, en Chine et aux États-Unis : vers une dissuasion tripolaire ?

Date de publication
04 décembre 2024
Accroche

Ce numéro de Questions Internationales s'intéresse au regain de la menace nucléaire. Comment éviter une escalade incontrôlable ? La course aux armements nucléaires est relancée, avec la Russie, les États-Unis et la Chine en première ligne. Cette compétition pose la question cruciale de l'équilibre des forces et des risques afférents. En effet, la dissuasion nucléaire, longtemps considérée comme un facteur de paix, est aujourd'hui remise en question. Quels sont les défis qui pèsent sur son efficacité ? 

 

Image principale

De Cuba à l'Ukraine : le signalement stratégique et la dissuasion nucléaire

Date de publication
03 décembre 2024
Accroche

Le signalement stratégique – ensemble de signes et de manœuvres visant, hors temps de guerre, à rendre crédible la menace d'usage des instruments nucléaires – est de retour.

Image principale

La frappe dans la profondeur : un nouvel outil pour la compétition stratégique ?

Date de publication
19 novembre 2024
Accroche

Atteindre la profondeur du dispositif ennemi pour l’affaiblir et faciliter l’obtention d’un résultat opérationnel ou stratégique est un objectif majeur des armées. Quels sont les moyens nécessaires pour mener des frappes dans la profondeur dans un double contexte de haute intensité et de renforcement des défenses adverses ?

Image principale

Entre ambitions industrielles et contribution à l'OTAN, les défis de la European Sky Shield Initiative

Date de publication
11 octobre 2024
Accroche

La guerre en Ukraine et la reconnaissance de la Russie comme principale menace pour la sécurité européenne poussent les Alliés à réinvestir dans leur défense sol-air et antibalistique.

Comment citer cette étude ?

Image de couverture de la publication
noel_comment_ia_transforme_la_guerre_2018_page_1.jpg
Comment l’intelligence artificielle va transformer la guerre , de L'Ifri par
Copier
Image de couverture de la publication
noel_comment_ia_transforme_la_guerre_2018_page_1.jpg

Comment l’intelligence artificielle va transformer la guerre