Rechercher sur Ifri.org

À propos de l'Ifri

Recherches fréquentes

Suggestions

De l'Ukraine à Gaza, la guerre par IA a déjà commencé

Interventions médiatiques |

citée par Etienne Meyer-Vacherand pour

  Le Temps
Accroche

Au salon international de la défense Eurosatory, l’arrivée massive de l’intelligence artificielle sur les champs de bataille ne fait pas de doute. Déjà utilisés sur le terrain, ces outils manquent pourtant d’un cadre légal.

Contenu intervention médiatique

L'industrie militaire n'a pas attendu l'arrivée des intelligences artificielles génératives pour s'intéresser à l'IA. « C'est un terme à la mode aujourd'hui, mais tout dépend de ce que vous placez derrière. Dans les faits, nous faisons de l'IA depuis trente ans déjà », souligne un exposant d'Eurosatory, spécialisé dans la détection des risques NRBC (nucléaire, radiologique, biologique, chimique). Ces dernières années cependant, le développement de systèmes de plus en plus autonomes s'est accéléré et l'utilisation de l'IA dans la guerre en Ukraine et à Gaza soulève des enjeux de sécurité et éthiques croissants.

L'utilisation de ces logiciels est considérée comme ayant participé à l'intensification des frappes. Selon un ancien membre de l'état-major cité dans une des enquêtes, alors que l'armée israélienne identifiait auparavant 50 cibles par an, l'utilisation d'IA en 2021 lors de l'opération « Gardien des murs », a fait passer ce chiffre à 100 par jour. Dans le système mis en place, la validation des cibles reste le fait d'un être humain, mais le laps de temps qui y est consacré, vingt secondes selon un témoignage, a soulevé de nombreuses critiques.

« Les vingt secondes laissées à l'opérateur ne lui permettent pas d'exercer son discernement et d'engager sa responsabilité », souligne Laure de Roucy-Rochegonde, responsable du centre géopolitique des technologies à l'Institut français des relations internationales.

Là où l'utilisation de l'IA dans le domaine militaire est parfois présentée comme un moyen de limiter les dommages et les erreurs, son utilisation à Gaza conduit à un élargissement des cibles.

« Ces technologies ne sont pas matures, souligne l'experte. Dans le cas de « Habsora » on parle d'une marge d'erreur de 10%. On estime que 37 000 personnes ont été identifiées comme membre du Hamas par cette IA. Cela veut dire que 3700 personnes pourraient être ciblées par erreur, sans parler des « dommages collatéraux ».

L'utilisation de ces outils met aussi en évidence des limites liées à la compréhension de leur fonctionnement.

« Des études ont mis en évidence ce que l'on appelle un effet « boîte noire ». Dans ces systèmes, l'opérateur à des difficultés à expliquer et comprendre le fonctionnement de l'IA. Il ne sait pas quels sont les éléments présents sur les images, dans les messages etc. qui conduisent à la prise de décision, détaille Laure de Roucy-Rochegonde. Il y a également un biais de sur-confirmation: on part du principe que la machine ne peut pas se tromper parce qu'elle opère à un niveau de complexité supérieur à celui de l'être humain. »

Depuis plusieurs années, des discussions sont en cours au niveau international pour encadrer les usages, particulièrement la question des SALA (système d'armes létales autonome), aussi parfois surnommés « robots tueurs ».

« C'est un débat qui dure depuis dix ans, mais qui n'aboutit pas, faute de définition consensuelle de ce qu'est un SALA, précise Laure de Roucy-Rochegonde. Nous sommes loin d'un « Terminator », mais si on prend la définition du CICR, à savoir un système qui peut sélectionner une cible selon certains critères et ouvrir le feu sans intervention humaine, les technologies actuelles permettent leur existence. »

Dans le domaine de la défense où les secrets industriels sont bien gardés, il est d'autant plus difficile de connaître les détails du fonctionnement d'une IA. Impossible de savoir si un drone est télé-opéré ou autonome sans accès au coeur de ses programmes. L'Union européenne s'est attelée à la mise en place d'un AI Act régulant les usages de l'IA, centré sur la transparence de ces outils. Adoptée en mars dernier, cette législation ne concerne cependant que les usages civils.

« La décision a été prise de séparer les usages militaires et civils parce que l'on estimait qu'il ne serait pas possible de trouver un consensus sur la partie défense, signale Laure de Roucy-Rochegonde. Mais cette séparation n'a pas de sens parce qu'un même algorithme peut-être utilisé dans les deux domaines. Un cadre international pourrait être réfléchi de la même manière que le traité sur la non-prolifération des armes nucléaires qui couvre aussi bien des aspects militaires que civils. »

 

>>> Lire l'article en intégralité dans Le Temps.

Decoration

Média

Partager

Decoration
Auteurs
Photo
laure_de_rochegonde

Laure de ROUCY-ROCHEGONDE

Intitulé du poste