Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

Guerre à Gaza : l'IA au service des frappes israéliennes

Interventions médiatiques |

citée par Ulysse Legavre-Jérôme dans

  Les Échos
Accroche

L'IA a permis de frapper la bande de Gaza avec une intensité inédite en générant chaque jour des centaines de cibles. Si son utilisation n'est pas nécessairement contraire au droit international, la façon dont Tsahal y a recours suscite toutefois une controverse.

Image principale médiatique
Crédits : Shutterstock
Crédits : Shutterstock
Contenu intervention médiatique

Israël a franchi une nouvelle étape dans l'automatisation de la guerre. Pour mieux cibler les responsables des massacres du 7 octobre, Tsahal a développé un nouveau programme soutenu par l'intelligence artificielle (IA), révèle une enquête publiée début avril par les médias israéliens « +972 » et « Local Call » qui se fondent sur le témoignage de six officiers du renseignement, auxquels a aussi eu accès le journal britannique « The Guardian »

Baptisé « Lavender », ce logiciel d'IA permet à l'armée israélienne de maintenir un rythme soutenu de frappes à Gaza et de guider son artillerie et son aviation. Il a été utilisé pour désigner « jusqu'à 37. 000 » personnes comme combattants ou militants du Hamas et du Jihad islamique depuis le début de l'opération « Glaive de fer » en octobre dernier.

« Lavender » agrège « des informations visuelles ou cellulaires, les connexions aux médias sociaux, des informations sur le champ de bataille, des contacts téléphoniques, ou encore des photos » pour ensuite « marquer » des combattants supposés, écrit le journaliste Yuval Abraham, auteur de l'enquête. Une personne présentant plusieurs caractéristiques incriminantes différentes obtient une note élevée et devient ainsi une cible potentielle pour une frappe.

Tsahal utilise l'IA à Gaza depuis plusieurs années

« L'armée israélienne a recours à de l'IA pour identifier des cibles depuis plusieurs années », explique Laure de Roucy-Rochegonde, chercheuse à l'Institut français des relations internationales et spécialiste de la régulation des systèmes d'armes létales autonomes. « C'est un facteur de supériorité technologique sur ses adversaires très important dans sa doctrine de défense ».

Tsahal a en effet revendiqué avoir mené la « première guerre par l'IA » durant les onze jours de l'opération « Gardien des murs » à Gaza en 2021.

Depuis ces premières révélations, plusieurs enquêtes ont permis de mettre en lumière l'existence de différents systèmes d'IA : « Habsora » pour définir des cibles géographiques comme des bâtiments ; « Depth of Wisdom » pour cartographier les sols et sous-sols de la bande de Gaza ; « Fire Factory » pour établir les plans de frappes les plus performants pour les drones ou l'aviation et « Alchemist » pour optimiser une riposte en cas d'attaque.

« Ce qui change aujourd'hui c'est l'expérimentation à grande échelle de ces technologies parce qu'Israël est en guerre », poursuit la chercheuse. Si l'utilisation de l'IA n'est pas nécessairement contraire au droit international, la façon dont l'armée israélienne y a recours depuis le 7 octobre suscite toutefois une controverse. L'enquête des médias « +972 » et « Local Call » pointe notamment le manque de vérification humaine.

« Pas plus de vingt secondes » pour décider une frappe

Pour s'assurer que la personne visée est bien la bonne, un officier n'a « pas plus de vingt secondes dans certains cas » pour prendre la décision, soit juste assez pour s'assurer que la cible marquée par « Lavender » est bien un homme. Un temps trop court selon les officiers du renseignement interrogés qui déclarent avoir le sentiment de simplement devoir entériner le choix de la machine.

Plusieurs sources affirment aussi que l'armée israélienne a conscience que le système commet des « erreurs » et que « Lavender » n'est fiable qu'à 90 %. Un officier supérieur qui a utilisé le logiciel a expliqué qu'il « savait à l'avance que 10 % des cibles humaines destinées à être assassinées n'étaient pas du tout des membres de l'aile militaire du Hamas ».

Pour Laure de Roucy-Rochegonde, cette « marge d'erreur reste beaucoup trop importante quand on parle de vies humaines et pose un vrai problème éthique et moral ».« Ces technologies permettent à Tsahal de connaître les dommages collatéraux que vont engendrer les frappes », explique la chercheuse. Posséder ces données doit permettre à l'armée israélienne de réduire au maximum les pertes civiles.

Mais selon l'enquête, il aurait été décidé au début de la guerre que la mort de 15 à 20 civils était « acceptable » pour une frappe si une cible était localisée par « Lavender ». Le nombre de victimes collatérales admis par l'armée israélienne monterait même à 100 pour les individus plus haut placés au sein du Hamas.

« On associe souvent les innovations technologiques à une guerre plus propre alors que ce qui compte au final c'est la volonté politique », poursuit-elle.

L'ONU « profondément perturbé » par cette utilisation

Plus inquiétant, un autre système d'IA baptisé « Where's daddy ? » (« Où est papa ? »), aurait été spécifiquement utilisé pour suivre les individus ciblés à Gaza et commettre des frappes lorsqu'ils étaient entrés dans les résidences de leur famille, toujours selon les deux médias israéliens. « Il est beaucoup plus facile de bombarder la maison d'une famille », explique une source citée dans l'enquête.

[...]


> Lire l'article sur le site des Échos

 

Decoration

Média

Partager

Decoration
Auteurs
Photo
laure_de_rochegonde

Laure de ROUCY-ROCHEGONDE

Intitulé du poste
Crédits image de la page
Crédits : Shutterstock