Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

« Sur le champ de bataille, l’IA dépasse les attentes des militaires »

Interventions médiatiques |

Interviewée par Alexandre Piquard, Elise Vincent et Chloé Hoorman pour

  Le Monde
Accroche

« Entretiens de l’IA ». Pour Laure de Roucy-Rochegonde, autrice de « La Guerre à l’ère de l’intelligence artificielle », l’apparition d’armes plus autonomes peut remettre en cause le contrôle de l’usage de la force.

Image principale médiatique
laure_de_rochegonde
Table des matières
Table des matières
body

Docteure en science politique, Laure de Roucy-Rochegonde dirige le Centre géopolitique des technologies à l’Institut français des relations internationales (IFRI) et enseigne l’éthique de la guerre à Sciences Po Paris et à l’université Paris-II Panthéon-Assas. Mercredi 16 octobre, elle a publié La Guerre à l’ère de l’intelligence artificielle (PUF, 240 pages, 18 euros), qui interroge notamment comment l’intelligence artificielle (IA) et l’apparition d’armes plus autonomes peuvent remettre en cause le contrôle humain, politique et juridique, de l’usage de la force.

L’IA connaît-elle dans le champ militaire un bond similaire à celui observé dans le civil depuis deux ans ?

Oui, complètement. Les premières annonces sur l’intégration de l’IA à des systèmes d’armes datent d’avant 2010. Avant la guerre en Ukraine, en 2022, on estimait que les Etats les plus avancés étaient les Etats-Unis, la Chine et, dans une moindre mesure, la Russie. Mais, au moment de l’invasion de l’Ukraine, l’IA militaire russe a plutôt brillé par son absence. Au début, on a vu des systèmes très rustiques sur le terrain et les Ukrainiens se sont progressivement démarqués, avec l’aide de grands acteurs américains, comme la société Palantir, spécialisée dans le traitement de données, ou la société de communication par satellite d’Elon Musk, Starlink.

 

Citations Auteurs

« Là, on a vraiment vu une accélération, un point de bascule, parce que tous ces acteurs ont bénéficié de quelque chose de très rare jusque-là : les données opérationnelles sur le terrain. Sur le champ de bataille, aujourd’hui, l’IA dépasse plutôt les attentes des militaires. »

body
En Ukraine, les drones sont omniprésents. En quoi l’IA a-t-elle modifié leur usage ?

Il y a dix ans, à l’époque de l’invasion de la Crimée, en 2014, les drones avaient une grande vulnérabilité : quand on coupait leur liaison avec l’opérateur – ce que les Russes font très bien –, ils finissaient par tomber. C’est là que l’IA joue aujourd’hui un rôle, car elle permet d’autonomiser la navigation, le ciblage, le réajustement d’une trajectoire, etc. Les drones peuvent désormais de plus en plus souvent continuer à opérer sans interrompre leur mission.

Il y a beaucoup de recherches sur le vol autonome, en Europe ou aux Etats-Unis, où l’armée américaine a mené des tests sur des chasseurs. Va-t-on vers la fin des pilotes de chasse ?

Un pilote de chasse dirait que c’est impossible qu’un drone sache tout faire seul dans une mission. Cependant, les drones sont de plus en plus capables d’effectuer des missions similaires à celles d’un avion de chasse. Cela dit, dès lors qu’il y a besoin d’une responsabilité humaine pour certaines missions, les Etats préfèrent s’assurer de la présence d’un pilote, comme garde-fou. La prochaine frontière, ce sont les essaims de drones, qui fonctionneront avec une intelligence collective, un peu comme un banc de poissons.

L’IA de défense est aussi utilisée pour agréger des données hétérogènes à des fins de renseignement ou de ciblage. L’armée israélienne y a eu recours depuis un an à Gaza. Comment ?

D’après les enquêtes menées par des médias israéliens, comme le très sérieux + 972 Magazine, marqué à gauche, et les déclarations de l’armée israélienne, l’IA utilisée pour aider au ciblage de membres du Hamas va de pair avec un système de surveillance de masse. L’armée israélienne aurait ainsi établi une note de sécurité pour les habitants de Gaza en fonction de « schémas de vie », comme le fait d’appartenir à certains groupes WhatsApp, le fait de fréquenter certains lieux, etc. L’armée israélienne a pu ensuite considérer que des habitants étaient des combattants du Hamas ou du Jihad islamique. L’IA a aussi très largement été employée pour identifier des cibles, ce qui a contribué à l’intensité des bombardements. Selon les chiffres donnés par l’armée israélienne, il y a eu plus de frappes durant les 35 premiers jours de l’opération « Glaives de fer », lancée fin 2023 – 15 000 cibles frappées – que pendant toute l’opération « Bordure protectrice », en 2014 – de 5 000 à 6 000 au total.

De nombreuses ONG et juristes ont dénoncé cette utilisation, considérant qu’elle violait le droit international humanitaire…

Cette façon de recourir à l’IA pose question au regard du droit international humanitaire. D’abord, le principe de précaution, qui impose de mettre les civils à l’abri avant de cibler un objectif. Ensuite, le principe de distinction [entre civils et militaires]. Le programme, appelé « Where’s Daddy », permet, par exemple, selon le + 972 Magazine qui s’en est fait l’écho, d’identifier les combattants du Hamas quand ils sont chez eux, où il est possible que soient aussi présents leur famille ou des voisins, à proximité. Enfin, le principe de proportionnalité, selon lequel une frappe ne doit pas être excessive par rapport à l’avantage militaire concret et direct attendu. Mais ce principe de proportionnalité est assez subjectif. Chaque Etat en fait sa propre évaluation, selon les situations. Or, depuis le 7 octobre 2023, Israël tient le discours d’une guerre existentielle, ce qui semble avoir fait évoluer son calcul de proportionnalité. Le nombre de victimes collatérales consenti pour atteindre un membre du Hamas a considérablement augmenté, en comparaison des précédentes opérations menées dans la bande de Gaza. Cette évolution est liée à un changement de perception du conflit mais aussi à l’IA, car ces programmes ont permis davantage de frappes.

Toutes les armées assurent que l’IA est utilisée avec un « humain dans la boucle », qui demeure l’ultime donneur d’ordre. Est-ce toujours le cas ?

C’est un principe très consensuel. Mais, dans l’usage effectif de ces outils, plusieurs dérives érodent le contrôle humain exercé sur le recours à la force. Il y a d’abord un enjeu d’exercice de l’entendement humain, lié à la rapidité. L’IA accélère encore le rythme de la guerre. Le risque est ici que le temps de réaction humain soit trop long pour que de vraies capacités de surveillance puissent s’exercer.

Il y a de plus le biais d’automatisation, lié à une surconfiance. Les humains ont tendance à se dire que la machine fait des calculs beaucoup plus sophistiqués qu’eux. Ils savent que les IA utilisent des images satellites, des images de drones ou des écoutes téléphoniques, mais ils n’ont pas accès aux données comme le contenu de l’écoute téléphonique qui a permis de penser que la cible était légitime. L’humain risque alors de servir de blanc-seing à la machine. Il y a une forme de simple droit de veto de l’humain, qui s’exerce de moins en moins.

Ce contrôle ne risque-t-il pas d’être encore plus limité dans les projets de flottes de drones, comme celui développé par la marine américaine dans l’Indo-Pacifique contre la Chine ?

On assiste effectivement à une érosion du contrôle de la force. Le contrôle humain, mais aussi politique, le fait d’en référer au Parlement pour avoir l’autorisation d’employer la force et d’entrer en guerre. Le recours à des moyens de combat déshumanisés tend à amoindrir la capacité de faire jouer ces garde-fous démocratiques. Quand les Américains sont intervenus en Libye, en 2011, ils n’ont pas appliqué la loi sur les pouvoirs de guerre imposant de demander l’autorisation du Congrès. Et quand la Maison Blanche a été sommée de s’expliquer, elle a dit que, parce qu’aucune vie américaine n’était engagée sur le terrain, il n’y avait pas besoin de se conformer à cette loi.

Depuis des années, des débats existent pour réglementer les armes létales autonomes ou les « robots tueurs ». Ces projets sont-ils condamnés à rester dans les limbes ?

Effectivement, les débats ont commencé il y a plus de dix ans. D’ailleurs, la France a beaucoup porté, au départ, cette question, en pensant qu’il y aurait forcément une interdiction car, du point de vue du droit international humanitaire, il y avait des questions assez évidentes. Mais cela ne s’est pas du tout passé comme prévu.

C’est assez dramatique, mais la tendance actuelle est plutôt à la désinhibition sur le recours à des armes qui étaient considérées comme taboues : les armes à sous-munitions, le phosphore blanc, les mines antipersonnel… Or, souvent, dans l’histoire du désarmement, il faut une sorte de choc traumatique, collectif, où l’usage d’une arme s’avère tellement scandaleux sur le plan moral, pour que la revendication de régulation prenne du poids et finisse par aboutir. Cela s’est produit avec les armes incendiaires comme le napalm, durant la guerre du Vietnam, ou avec les armes chimiques comme le gaz moutarde, pendant la première guerre mondiale.

Certains disent que l’IA militaire va réduire le nombre de morts. Est-ce crédible ?

C’est un discours courant, mais ce n’est pas nécessairement le cas. L’exemple de Gaza le prouve. Le fait de recourir à des techniques d’IA rationalise le recours à la force, parce que ce sont des calculs, que beaucoup de données sont prises en compte et qu’il y a l’idée d’une sophistication technologique. Mais le nombre de morts dépend toujours de la volonté politique, que l’on utilise une IA ou des soldats.

Le milieu militaire est assez ambivalent vis-à-vis de l’IA et des drones. S’il y a eu un déclic avec les derniers conflits, n’y a-t-il pas aussi une certaine peur de leur usage tous azimuts ?

Cela dépend des armées, mais il y a effectivement une évolution des mentalités, notamment au sein de l’armée de terre en France. Quand j’ai commencé à travailler sur ce sujet, en 2018-2019, les militaires voyaient cela de très loin. Et ils avaient une sorte d’enthousiasme, un peu par principe. Mais, aujourd’hui, plus cela devient concret, moins ils le sont. Et plus ils voient les dangers.

Les géants du numérique américains, avec leur maîtrise de l’IA, vont-ils devenir encore plus incontournables dans l’essor de ces systèmes ?

Avant la guerre en Ukraine, il y avait déjà des liaisons dangereuses entre les géants du numérique et les armées. Surtout aux Etats-Unis, qui ont une politique très active d’intégration de ces acteurs dans les programmes de défense. Mais, depuis, c’est devenu manifeste. Et cela a ouvert la voie dans des Etats comme la France, qui voyaient d’un plus mauvais œil de faire appel à des acteurs privés du numérique. Il est très difficile aujourd’hui d’imaginer faire de l’IA de défense sans faire appel à eux, car les armées n’ont pas leur puissance de calcul ou leur capacité de stockage de données. Avant, les milieux militaires avaient ce fantasme de développer leurs moyens en propre. Mais, en France, avant l’été, il y a eu la création de l’Agence ministérielle pour l’IA de défense, qui a justement pour objectif de chercher des solutions à ce problème.

L’IA risque-t-elle de démocratiser l’usage offensif hors des armées par des acteurs non étatiques, terroristes, etc. ?

Oui, complètement. Et là, on en revient à la question du contrôle international de la force, qui passe par la maîtrise des armements. Cela pose la question des questions de prolifération et de vérification. On ne peut pas compter le nombre d’algorithmes… Et quand un drone fait une frappe, c’est pratiquement impossible de dire s’il était piloté par une IA.

N’y a-t-il pas un risque que l’IA militaire se révèle finalement décevante, comme certaines vagues précédentes de numérisation ?

C’est une bonne question et, dans l’histoire de l’IA, il y a toujours eu des étés puis des hivers. Mais, aujourd’hui, l’IA permet de faire des choses que l’on n’aurait pas du tout soupçonnées il y a quatre ou cinq ans. Dans l’utilisation en Ukraine ou à Gaza, les militaires sont plutôt bluffés que déçus.

A l’heure où les Etats effectuent des coupes budgétaires, la course à l’IA n’est-elle pas nourrie par la promesse d’une militarisation low cost ?

Si. Cela s’ajoute à la réduction du format des armées et au besoin d’honorer des engagements extérieurs, malgré tout. Toutes ces tendances se combinent et rendent l’autonomisation et l’IA toujours plus attractives.

 

Lire l'article sur le site du Monde.

 

Commander le livre de Laure de ROUCY-ROCHEGONDE « La guerre à l'ère de l'intelligence artificielle » sur le site de PUF.
Decoration

Média

Nom du journal, revue ou émission
Le Monde

Journaliste(s):

Journaliste
Alexandre Piquard, Elise Vincent et Chloé Hoorman

Format

Catégorie journalistique
Article

Partager

Decoration
Auteurs
Photo
laure_de_rochegonde

Laure de ROUCY-ROCHEGONDE

Intitulé du poste