La guerre à l’heure de l’IA
À l’heure où les développements de cette technologie dans le domaine militaire avancent plus vite que les institutions chargées de les réguler, Laure de Roucy-Rochegonde, chercheuse à l’IFRI et chercheuse associée au CERI (Sciences Po), présente dans « La guerre à l’ère de l’intelligence artificelle. Quand les machines prennent les armes » les défis posés par le déploiement de ces « robots tueurs » en temps de guerre. À l’instar, en leur temps, du « père de la bombe atomique » Robert Oppenheimer et de ses collaborateurs, les artisans de l’IA sont aujourd’hui confrontés aux implications morales de leurs recherches, et de leurs possibles usages destructeurs. Extraits choisis.
Du projet Manhattan au projet Maven
Le 16 juillet 1945, au Nouveau-Mexique, alors que venait d’être accompli le premier tir nucléaire en conditions réelles, appelé Trinity, le responsable de cet essai, le physicien américain Kenneth Bainbridge, déclarait à son collègue Robert Oppenheimer, le chef du projet Manhattan : « Now we are all sons of bitches. » Trois semaines plus tard, le 6 août, était larguée par un bombardier américain la fameuse bombe Little Boy sur la ville japonaise d’Hiroshima, où périssaient instantanément 80 000 personnes. Le 9 août, c’était au tour de Fat Man de provoquer la mort de 40 000 Japonais à Nagasaki.
Alors qu’en 2025 sont commémorés les 80 ans de ce drame, il est possible de dresser un parallèle avec les chercheurs contemporains travaillant sur les techniques d’IA et sur la robotique. Ceux-ci avouent en effet avoir le sentiment que leurs disciplines préparent des révolutions potentiellement dangereuses pour l’humanité. Comme le révélait Peter Singer dans un article de 2013 :
« Les scientifiques tiennent aujourd’hui sur la robotique un discours qui ressemble à celui qui se tenait dans les années 1940 sur la recherche nucléaire. C’est aujourd’hui la robotique qui exerce un fort pouvoir d’attraction sur les jeunes ingénieurs ou les informaticiens, qui concentre les enthousiasmes et les financements. Beaucoup, toutefois, craignent de vivre ce qu’ont vécu nombre de brillants esprits ayant participé au projet Manhattan, de faire les mêmes erreurs, de créer quelque chose sans maîtriser les conséquences possibles. »
De manière intéressante, les premières alertes sur les risques posés par les Sala sont venues de professionnels de la robotique. Ainsi, le 17 août 2007, le roboticien Noel Sharkey exprimait au Guardian son inquiétude face au développement de « robots entièrement autonomes » capables de prendre des décisions en matière de létalité, et appelait à leur régulation à l’échelle internationale. En septembre 2009, avec Jürgen Altmann, Peter Asaro et Robert Sparrow, ils formaient l’Icrac dont l’objectif est « l’interdiction du développement, de déploiement et de l’emploi de systèmes armés autonomes ».
L’entreprise canadienne ClearPath Robotics a quant à elle été la première à soutenir publiquement la Campaign to Stop Killer Robots, le 13 août 2014. Dans sa déclaration, elle affirmait vouloir continuer à travailler avec ses clients issus du monde militaire, mais s’engageait à « ne pas fabriquer des robots armés retirant l’homme de la boucle » et insistait sur le fait qu’elle avait choisi « de privilégier son éthique plutôt des revenus potentiels ».
Texte citation
En juillet 2015 puis en juin 2018, des milliers d’experts de la robotique et de l’IA, ainsi que des chefs d’entreprise dans le domaine de la tech ont diffusé une lettre ouverte exhortant l’ONU à faire obstacle au développement des « robots tueurs ». Les signataires de ces textes, parmi lesquels des personnalités aussi éminentes que Stephen Hawking ou Elon Musk, s’y montraient particulièrement inquiets.
Directrice du Centre géopolitique des technologies de l'Ifri
En avril 2018, cinquante chercheurs en IA issus de trente pays différents annonçaient pour leur part leur décision de boycotter la prestigieuse université sud-coréenne Kaist. Des articles de presse avaient révélé son implication dans des programmes militaires, notamment destinés à la recherche sur l’autonomisation des systèmes d’armes – en association avec Hanwha Systems, l’une des principales entreprises de la BITD sud-coréenne. Le président de l’université, Sung-Chul Shin, avait répondu que Kaist ne mènerait « aucune activité de recherche contraire à la dignité humaine, y compris des armes autonomes dépourvues de contrôle humain significatif ».
Au même moment, plus de 3 000 employés de Google lançaient une pétition contre le projet Maven porté par Le Pentagone, qui reposait sur l’utilisation de techniques d’IA pour interpréter des images, à des fins de surveillance et des frappes par drone. Face à cette levée de boucliers, la firme de Mountain View a été contrainte de mettre un terme à son partenariat avec le Département de la Défense, pourtant estimé à près de 250 millions de dollars.
Cette résistance s’explique par une opposition de principe à l’utilisation à des fins militaires d’une technologie d’abord civile, et par une mentalité tournée vers le « bien commun », couramment rencontrées dans cet écosystème, qui voit la collaboration avec les armées d’un très mauvais œil. « Nous pensons que Google ne devrait pas être impliqué dans des activités guerrières », énonçaient ainsi les salariés dans une lettre adressée au président de la société, Sundar Pichai.
Ces revendications témoignent d’attentes croissantes des membres de la communauté épistémique de l’IA, qui refusent d’être impliqués dans des usages néfastes des technologies qu’ils contribuent à développer, et dont ils mettent en avant les applications civiles, jugées beaucoup plus vertueuses.
Lire l'article sur le site de The Conversation.
Acheter le livre de Laure de Roucy-Rochegonde, La guerre à l'ère de l'intelligence artificielle sur le site de PUF.
Média
Format
Partager