Armes autonomes : « La menace se rapproche à chaque progrès technique »
La question de l’interdiction des armes autonomes se pose dès aujourd’hui, estime la chercheuse Laure de Roucy-Rochegonde, pointant la « mauvaise foi » des États.
Laure de Roucy-Rochegonde, spécialiste des armes autonomes et de la diplomatie du désarmement au centre des études de sécurité de l’Ifri, décrypte les enjeux éthiques des systèmes d’armes létales autonomes.
Robots tueurs, armes autonomes… De quoi parle-t-on exactement ?
Parler de robots tueurs renvoie à un imaginaire de science-fiction, et empêche de réfléchir à une menace bien réelle, qui se rapproche à chaque progrès technique, même si ce n’est pas encore dans un futur proche. Il faut faire la distinction entre robots, intelligence artificielle, et autonomie. Bien que liées, ces trois disciplines scientifiques ont des implications différentes. Les robots exécutent automatiquement les tâches pour lesquelles ils ont été programmés, en réagissant au signal perçu par leurs capteurs – un distributeur de boissons, par exemple, va toujours faire la même chose, quel que soit l’endroit où on le pose. L’autonomie est la capacité donnée à des systèmes robotiques d’exécuter, grâce aux algorithmes de l’intelligence artificielle, des tâches réalisées par l’humain, de réagir à l’imprévu et de prendre des décisions – le distributeur de boissons pourrait, sans qu’on lui ait demandé, modifier la dose de sucre en fonction de la corpulence du client. Un Sala, terrestre, aérien ou naval, serait capable de se débrouiller seul dans un environnement changeant, de trouver des cibles et d’ouvrir le feu sans aucune intervention humaine.
Les armes autonomes sont-elles déjà en service ?
Pour l'instant, il n'y a pas de systèmes vraiment autonomes déployés dans des conditions opérationnelles. Il y a encore beaucoup de freins techniques. La Russie, qui se présentait comme une championne de la robotique, avec un discours très désinhibé, et menait des expérimentations en Syrie, utilise finalement en Ukraine des drones très classiques, tels qu'ils existent depuis la guerre du Golfe. La sentinelle robotique sud-coréenne SG-RA1, postée dans la zone démilitarisée entre les deux Corées, détecte les intrusions, mais elle est immobile, et même si elle peut tirer toute seule, elle est toujours téléopérée par un humain. Il y a aussi de profondes réticences d'ordre éthique. Détecter des roquettes et les abattre automatiquement ne crée pas le même malaise moral que de déployer des robots face à des humains sur un champ de bataille. Cela modifierait profondément le droit de la guerre, l'éthique de la guerre, et la stratégie militaire.
Quelles menaces représentent-elles ?
Après que, en 1988, un navire américain, l'USS Vincennes, a abattu un vol commercial iranien avec 300 passagers car son système d'armes l'avait pris pour un avion de chasse, et que, en 2003, en Irak, deux avions britanniques ont été abattus par la défense antiaérienne américaine, il y a eu un appel à la prudence. La question des fratricides se pose avec d'autant plus de gravité qu'il y a de moins en moins de vérifications des décisions par des humains, et que l'opérateur a tendance à faire trop confiance à la machine. Les algorithmes sont si complexes, surtout en apprentissage profond, que leurs développeurs ne savent plus expliquer leurs raisonnements et leurs décisions. Les machines pourraient se répondre entre elles, sans le garde-fou de l'intelligence humaine, comme lorsque deux programmes informatiques autonomes ont déclenché tout seuls un krach boursier. On ne passe pas de l'automatique à l'autonomie avec un bouton « on-off ». C'est un processus graduel, et les techniques progressent très vite, portées par la puissance de l'innovation civile.
> Retrouver l'intégralité de l'article sur le site de Libération.
Média
Partager