Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

Bombardements israéliens à Gaza : comment l’intelligence artificielle annihile les préventions éthiques

Interventions médiatiques |
Accroche

Gaza est devenue un laboratoire à ciel ouvert du recours à l’IA dans la définition des cibles de l’armée israélienne. Les révélations récentes du média +972 montrent que la confiance placée dans la technologie est telle que le travail de vérification n’est pas effectué. 

Contenu intervention médiatique

Peu après le début de l’opération Glaives de Fer menée par Israël dans la bande de Gaza, l’avocat Ousman Noor, coordonnateur de la campagne Stop Killer Robots (Arrêtez les robots tueurs), était licencié pour avoir publié un message de soutien à la population civile de Gaza sur le réseau social X.

Cette coalition d’ONG animée entre autres par Human Rights Watch et Amnesty International est pourtant en première ligne de la lutte contre le recours à l’intelligence artificielle dans les opérations de ciblage militaire, dont Gaza est devenu un laboratoire à ciel ouvert. Ce licenciement intervient alors que se tient à Vienne (Autriche) une conférence internationale afin d’imposer un nouveau protocole sur la régulation de l’IA de défense.

Au-delà de cette polémique se pose la question de l’emploi de l’intelligence artificielle par l’armée israélienne, appliquée pour la première fois à grande échelle sur un théâtre d’opération. Permet-elle un respect plus strict des principes juridiques de distinction entre civils et combattants, de précaution et de proportionnalité, comme l’espèrent les promoteurs de l’IA militaire ? Ou au contraire, peut-on imputer aux algorithmes les manquements au droit international à Gaza ?

L’incorporation de techniques d’intelligence artificielle aux systèmes militaires israéliens n’est pas nouvelle. Elles sont par exemple utilisées depuis plusieurs années dans le célèbre système de défense aérienne Dôme de fer, pour calculer les trajectoires des missiles interceptant les roquettes qui s’apprêtent à s’abattre sur le territoire israélien. Dès 2021, l’opération Gardien des Murs avait été présentée par Tsahal comme la « première guerre de l’intelligence artificielle ».

L’opération Glaives de Fer abat néanmoins les dernières réticences à l’utilisation offensive de l’IA en temps de guerre, principalement à des fins de ciblage. Selon les révélations de six officiers de renseignement israéliens à +972, un magazine d’investigation israélien nommé d’après l’indicatif téléphonique du pays, trois logiciels en particulier sont utilisés à une échelle sans précédent (lire notre entretien avec Haggai Matar, directeur exécutif de +972).

La définition des cibles

Le programme Habsora identifie des sites potentiellement utilisés par le Hamas dans la bande de Gaza, en les divisant en quatre catégories : les « cibles tactiques » telles que des caches d’armes, des sites de lancement de roquettes ou des postes d’observation ; les « cibles souterraines », c’est-à-dire les tunnels construits par le Hamas ; les « cibles de puissance » (« power targets »), qui incluent des tours résidentielles et des bâtiments publics tels que des universités, des banques, des bâtiments gouvernementaux, et qui sont détruites afin de révolter la société palestinienne et de la conduire à exercer une pression sur le Hamas pour rendre les armes. La dernière catégorie est celle des « résidences familiales », correspondant aux résidences des familles de membres du Hamas.

Autre grande révélation de +972, le programme Lavender propose des cibles humaines pour conduire des assassinats ciblés sur des membres du Hamas ou de groupes armés palestiniens. Cette pratique, qui a vu le jour lors de la Seconde Intifada, vise à tuer des personnes préalablement identifiées afin de les empêcher de nuire. Elle avait jusque-là été conduite à petite échelle sur des cibles dites à « haute valeur » (« high value target »), comme en 2002 contre Salah Shehadeh, le dirigeant des brigades Izz el Din Al Qassam, la branche armée du Hamas.

Une fois identifiées, ces cibles humaines sont entrées dans le logiciel Where’s Daddy ? (Où est papa ?) qui se charge de les localiser. Depuis le début de l’opération Glaives de Fer, Tsahal a choisi de frapper ces individus ciblés la nuit, alors qu’ils se trouvaient dans leurs maisons avec leurs familles et non sur des sites militaires. L’armée israélienne dispose en effet de plusieurs programmes de surveillance très avancés, qui lui permettent de traquer des milliers de Gazaouis de manière simultanée. Lorsque les personnes sont localisées chez elle, une alerte automatique est envoyée à l’officier de ciblage, qui désigne ensuite l’habitation pour une frappe aérienne. Durant le premier mois de la guerre, près de 1 340 familles ont été ainsi éliminées, représentant plus de 6 000 personnes selon les journalistes de +972, qui se fondent sur les chiffres de l’ONU. De ce fait, la proportion de familles entières tuées dans leur maison est bien plus importante que dans l’opération Bordure protectrice de 2014.

Les erreurs dans l’utilisation de l’IA : biais de données et de sur-confiance

Les milliers de victimes civiles ciblées par l’armée israélienne sur proposition de ces différents algorithmes s’expliquent d’abord par un mauvais paramétrage de l’IA.

Le programme Lavender fonctionne grâce à un système de recommandation par IA, qui s’appuie sur les conduites caractéristiques de membres avérés du Hamas. Lavender a ainsi analysé des informations collectées sur les 2,3 millions de Gazaouis grâce à des techniques de surveillance de masse. Ce système met en lumière les capacités d’Israël en matière d’écoutes des communications, avec un accès au contenu des téléphones mais également aux métadonnées, facilitées par le fait que les communications palestiniennes - principalement PalTel – passent par des infrastructures israéliennes.

Une note de sécurité comprise entre 1 et 100 est ensuite attribuée à chaque Gazaoui, en fonction de la probabilité qu’ils appartiennent au Hamas. Cette note se fonde la similarité de leur conduite avec d’autres membres avérés du Hamas, par exemple s’ils changent fréquemment d’adresse ou de téléphone. Cependant, Lavender fonctionne avec un taux d’erreur estimé à 10 % : des catégories de population aux conduites similaires, comme les forces de police ou les défenseurs des droits humains qui changent fréquemment de téléphone pour préserver leur travail et ne pas subir de répression, ainsi que les familles de membres du Hamas, ont été ciblés.

De même, les personnes ayant un nom ou un surnom identique à un membre du Hamas, faisant partie d’un groupe WhatsApp auquel appartient un membre avéré, ou encore ayant récupéré un téléphone ayant auparavant appartenu à un membre du Hamas, sont désignées comme cibles.

Par conséquent, le jeu de données d’entraînement de l’IA n’est pas pleinement fiable, ce qui explique le taux d’erreur élevé de Lavender. Même lorsqu’ils y passent davantage de temps, les opérateurs tendent à prendre les recommandations de la machine pour argent comptant.

(...)

Malgré cette fiabilité imparfaite, les recommandations de ciblage de Lavender ont majoritairement été appliquées sans une vérification humaine attentive. Les soldats chargés de la correction du système ont systématiquement approuvé les frappes ciblant des hommes, allouant seulement une vingtaine de secondes à chaque individu ciblé.

Si ce faible investissement temporel s’explique ici par la volonté d’accélérer le rythme des opérations, l’expérience dans d’autres conflits tend à montrer que, même lorsqu’ils y passent davantage de temps, les opérateurs tendent à prendre les recommandations de la machine pour argent comptant. 

(...)

Le personnel militaire se contente la plupart du temps d’approuver les choix de la machine, « sans qu’il soit nécessaire de vérifier minutieusement pourquoi la machine a fait ces choix ni d’examiner les données brutes des services de renseignement sur lesquelles ils étaient fondés ». Cette absence de contrôle et d’engagement humains significatifs dans les décisions d’attaquer les cibles recommandées par Lavender témoigne d’une tendance inquiétante à se fier davantage aux calculs algorithmiques qu’au raisonnement humain.

Ce biais est d’autant plus inquiétant qu’un des problèmes posés par l’application militaire de l’IA est le phénomène de boîtes noire qui, du fait de la sophistication des algorithmes de deep learning, ne permet pas aux développeurs de comprendre le raisonnement déployé par l’IA pour obtenir un résultat.

Au plus fort de la guerre, Lavender a identifié 37 000 membres du Hamas potentiels parmi les Gazaouis. Cette désignation autorisant de facto Tsahal à tenter de les neutraliser, et avec un taux d’erreur de 10 %, 3 700 personnes innocentes seraient susceptibles d’être éliminées à tort. Pour les officiers, ces cibles sont désignées comme des « cibles poubelles » (« garbage targets »), car elles ne représentent pas une plus-value militaire importante du fait du moindre niveau de responsabilité au sein de la chaîne de commandement du Hamas.

À ces 3 700 personnes correspondant aux 10 % d’erreur s’ajoutent les familles vivant avec elles ainsi que leurs voisins, Where’s Daddy étant programmé pour localiser chez elles. Le nombre de civils ciblés par erreur devient alors considérable.

(...)

Dans un article de décembre 2023, CNN rapportait ainsi que le renseignement militaire américain estimait que 45 % des munitions utilisées à Gaza sont des « bombes stupides » (« dumb bombs ») qui suivent une simple trajectoire balistique et ont une marge d’erreur d’environ 100 mètres, par opposition aux « bombes intelligentes » (« smart bombs ») qui ont un système de guidage et permettent un rayon de 10 mètres de précision.

Les erreurs dans la doctrine de ciblage

L’application de l’intelligence artificielle en aide à la décision par l’armée israélienne dans l’opération Glaives de Fer a donc des conséquences désastreuses. Cependant, il est important de souligner que le nombre très important de victimes civiles est également imputable à la doctrine israélienne de ciblage, c'est-à-dire à des décisions prises par des humains.

Cette doctrine est d’abord caractérisée par une très forte extension de la « kill list » à la suite des massacres du 7 octobre 2023. Cette extension de la « kill list » implique en outre une dilution du principe de proportionnalité, qui prescrit que le recours à la force soit proportionnel à l’avantage militaire direct attendu. Dans les premières semaines du conflit, Tsahal a consenti à ce que près de 20 civils soient tués pour neutraliser un « junior operative » du Hamas, allant jusqu’à 300 civils tués pour un haut responsable. Ainsi, le 2 décembre 2023, 100 personnes ont trouvé la mort lors de l’opération menée contre Wisam Farhat, le commandant du bataillon Shuja’iya du Hamas.

De même, le commandant de la brigade responsable du centre de Gaza, Ayman Nofal, est mort au cours d’un bombardement israélien ayant entraîné la destruction de plus de 16 immeubles dans le camp de réfugié·es d’Al Bureij, et la mort de plus de 300 civils. À titre de comparaison, pour l’opération Trident de Neptune contre Oussama Ben Laden, les États-Unis avaient autorisé un ratio maximal de 30 victimes collatérales.

Le principe de proportionnalité repose en effet sur un calcul, laissé à la discrétion de chaque État en fonction des intérêts fondamentaux défendus. Cependant, comme le déplore Mathias Delori dans son ouvrage Ce que vaut une vie, les démocraties libérales ont « tendance à fétichiser ce principe ». Ils considèrent qu’ils ont maîtrisé la force dès lors qu’ils l’ont mesurée, peu importe le résultat de cette mesure. En l’espèce, le recours à l’intelligence artificielle est de nature à renforcer cette fétichisation, en donnant l’impression d’un calcul parfaitement rationnel.

(...)

Tensions morales

Là est la tension sur le plan moral : cette facilitation fait courir le risque d’un abaissement du seuil de recours à la force. Ben Saul, professeur de droit international et rapporteur spécial des Nations unies sur les droits de l’homme et la lutte contre le terrorisme, estime ainsi que la dépendance excessive à ces systèmes donne le vernis de la rationalité à la dévastation qu'Israël a causée à Gaza.

Une autre source de Yuval Abraham a d’ailleurs déclaré que le personnel humain ne servait souvent que de « blanc-seing » pour les décisions de la machine, ce qui n’est pas sans rappeler le concept de « tampon moral » développé par Mary Cummings. Cette professeure américaine avance que le fait d’appréhender la réalité par le biais d’une machine rend la mort moins concrète et donc plus probable car moins « coûteuse » sur le plan moral, entraînant, selon les mots de Grégoire Chamayou, une « virtualisation de la conscience de l’homicide » chez l’opérateur, dès lors plus enclin à avoir un recours excessif à la force.

(...)

Toutefois, les révélations sur l’utilisation de l’intelligence artificielle dans les procédures de ciblage à Gaza montrent que même lorsque la décision est réservée à l’humain et que le système est conçu comme proposant une « aide à la décision », la confiance placée dans la technologie est telle que le travail de vérification n’est pas effectué et que les préventions éthiques sautent, a fortiori dans un contexte opérationnel où la chaîne de commandement exige une cadence de frappes importantes.

> Lire l'article dans son intégralité sur le site de Médiapart (réservé abonné)

 

Decoration

Média

Partager

Decoration
Auteurs
Photo
laure_de_rochegonde

Laure de ROUCY-ROCHEGONDE

Intitulé du poste
Photo
amelie-min.jpg

Amélie FÉREY

Intitulé du poste