NZNTV

NOYAUZERONETWORK.ORG / GENEVA, SWITZ.
Armes létales. Peut-on interdire les robots tueurs ?

SANS CHAUFFEUR. Avant même l’appel à l’interdiction des armes létales autonomes lancé cet été, ­ les Nations unies et des ONG avaient déjà tenté de les réglementer. Sans résultat majeur à ce jour.

Après les voitures, les armes. A peine nous habituons-nous à l’idée de monter un jour dans des véhicules sans chauffeur, voilà que nous découvrons que l’intelligence artificielle pilotera peut-être aussi les fusils, les missiles ou les bombes du futur. La mise en garde a été lancée en pleine torpeur estivale par des person­nalités aussi réputées qu’Elon Musk, le patron de Tesla, le physicien Stephen Hawking ou Noam Chomsky, professeur émérite au MIT. Le 28 juillet dernier, à l’occasion de la Conférence internationale sur l’intelligence artificielle (IJCAI), ils ont cosigné, avec plusieurs milliers de chercheurs, une lettre ouverte mettant en garde contre les armes du futur : « Nous pensons que démarrer une course aux armements utilisant l’intelligence artificielle est une mauvaise idée, et qu’elle doit être empêchée par une interdiction complète des armes offensives autonomes. »

Cette lettre a eu le mérite de mettre sur la place publique un débat qui agite depuis plusieurs années, mais sans grand retentissement jusqu’ici, les diplomates, l’industrie de la défense et les ONG. Compte tenu des récents progrès de la robotique et de l’intelligence artificielle, leur application au monde des armes ne relève plus des films de science-fiction façon « Terminator ». L’industrie de la défense est d’ailleurs un champ d’expérimentation important pour les roboticiens. Ariel, une des premières machines de la start-up américaine iRobot, connue pour ses aspirateurs, fut développée dès 1996 pour détecter et éliminer les mines sur le champ de bataille. Les systèmes de défense antiaériens sont, eux aussi, très largement robotisés. Mais ils ne sont pas conçus pour mettre en péril des humains, et ne sont pas encore entièrement autonomes.

Développés pour tuer

Ce qui inquiète les chercheurs et les ONG, c’est la génération suivante : des systèmes développés spécifiquement pour tuer, et qui pourront fonctionner sans aucune supervision humaine. Si elles n’existent pas encore, ces armes du futur portent déjà un nom : « Lethal autonomous weapons systems » (« LAWS »), et même une traduction française (« Systèmes d’armes létales autonomes », Sala). La première mise en garde est venue en novembre 2012, dans un rapport rédigé par l’ONG Human Rights Watch et par l’International Human Rights Clinic, un programme de la faculté de droit de Harvard. Intitulé « Losing Humanity » (« La perte de l’humanité »), le rapport appelait à une « interdiction absolue du dévelop­pement, de la production et de l’utilisation d’armes totalement autonomes », dont il ­prévoyait l’arrivée « dans les 20 à 30 prochaines années ».

Pas de consensus

Dans la foulée de ce rapport, les Nations unies ont commencé à se pencher sur le sujet. Une première conférence d’experts a été organisée, en mai 2014, à la demande de l’ambassadeur français de l’époque, Jean-Hugues Simon-Michel, auprès de la Conférence du désarmement de Genève. Une deuxième conférence a eu lieu en mai dernier, mais sans parvenir à un consensus des pays représentés. Car la définition précise des armes létales autonomes, et donc de celles qui pourraient être concernées – ou pas – par une éventuelle interdiction, varie selon les pays. Pour ceux ayant une industrie de défense avancée, Etats-Unis en tête, pas question que les drones, qui sont pilotés à distance, puissent être pris en compte.

Trois systèmes qui préfigurent les armes du futur

SGR-A1. Ce robot sentinelle sud-coréen a été conçu pour patrouiller dans la zone démilitarisée (DMZ) qui sépare les deux Corées. Doté de multiples les capteurs, le SGR-A1 peut repérer une cible à 4 km et faire feu avec un fusil mitrailleur. Autonome en théorie, le robot est aujourd’hui placé sous le contrôle d’un opérateur humain. Il a été mis au point par une filiale de Samsung, Techwin, revendue à Hanwha fin 2014.
Harpy. Fabriqué par Israel Aerospace Industries, ce drone de combat autonome est conçu pour repérer et détruire les radars. Il embarque une charge explosive de 35 kilos, et il est programmé pour s’écraser sur le radar en se guidant grâce à son signal. En2004, la vente de drones Harpy à la Chine a occasionné une crise diplomatique entre Israël et les Etats-Unis.
Phalanx. Les systèmes de défense antimissiles, comme l’américain Phalanx, fabriqué par Raytheon, ont été les premières armes autonomes . Placé sur les porte avions, il détecte la cible grâce à son radar et peut la détruire en tirant 4.500 obus de 20 mm à la minute. Surnommé « R2-D2 », Phalanx est aujourd’hui un système semi-autonome qui ne peut pas être activé en l’absence d’un humain.

« La particularité des armes autonomes est qu’elles peuvent prendre des formes très dif­férentes », explique le chercheur américain Peter Asaro, cofondateur de l’International Committee for Robot Arms Control (Icrac), qui fut l’un des premiers universitaires à étudier ce domaine. « Le plus efficace serait de considérer que, quel que soit le système, il est interdit à partir du moment où il peut viser et faire feu sans une réelle supervision humaine. » Car le principal problème posé par les armes autonomes est celui de la responsabilité. Aujourd’hui, tous les systèmes de défense mettent un humain dans la boucle. Demain, des systèmes totalement autonomes aboutiraient à une déresponsabilisation des forces armées, et donc à un risque d’accroissement des crimes de guerre… sans personne à traduire devant un tribunal international. Le département de la Défense américain, dans une directive sur les armes autonomes publiée en 2012, stipule d’ailleurs que « les systèmes autonomes et semi-autonomes doivent être conçus pour autoriser […] un niveau de jugement humain approprié dans l’usage de la force ».

« Les robots n’ont pas peur »

Paradoxalement, le facteur humain est également invoqué par les partisans du développement des armes létales autonomes. « Les robots n’ont pas peur, expliquait en mai dernier à la chaîne CBC Steven ­Groves, du think tank conservateur américain Heritage Foundation. Ils n’ont pas d’accès de folie. Ils ne réagissent pas avec rage. » Un argument balayé par Peter Asaro. « On pourra peut-être nous démontrer qu’un système autonome est plus performant qu’un humain. Mais ce que font les humains va bien au-delà de viser et tirer : ils prennent en compte le contexte, ils sont capables de juger si des vies civiles sont potentiellement en jeu. Tout cela n’aura pas forcément de sens pour une machine. »

Quant à savoir si l’appel du 28 juillet peut aboutir à un consensus mondial et à l’équivalent d’un traité de non-prolifération international, Peter Asaro n’en est pas persuadé. « Les Nations unies évoluent très lentement, à la fois pour des raisons bureaucratiques et parce qu’ils cherchent à obtenir un consensus de nombreux Etats. Je pense que si cela prend encore deux ou trois ans avant d’aboutir à un traité, les pays les plus avancés auront mis au point des systèmes très sophistiqués, et ils ne voudront pas forcément signer. » Mais cela n’empêchera pas, pour autant, d’aboutir à une convention d’interdiction, sur le modèle de celle sur les mines antipersonnel. « Plusieurs pays ne l’ont pas ratifiée, dont les Etats-Unis, explique Peter Asaro. Mais ils l’appliquent dans les faits pour ne pas se retrouver mis en cause. »

Trois degrés dans l’autonomie

C’est la question centrale des discussions sur les armes létales : comment définir l’autonomie d’un système robotisé ? La plupart des chercheurs établissent trois degrés. 
Semi-autonomie. L’arme peut choisir une cible et faire feu uniquement sur l’ordre d’un humain (on dit que l’homme est « dans la boucle »).
Autonomie supervisée. L’arme choisit une cible et fait feu de façon autonome, mais elle est placée sous le contrôle d’un humain qui peut interrompre la mission à tout moment (l’homme est « sur la boucle »).
Autonomie totale. L’arme peut choisir sa cible et faire feu en dehors de toute interaction humaine (l’homme est « hors de la boucle »).
Une interdiction des armes « totalement autonomes » sera probablement la moins complexe à obtenir. Cependant, les ONG font remarquer que sur le terrain, le « contrôle humain » des armes semi-autonomes est parfois limité, voire impossible.

Benoît Georges

Leave comment

Your email address will not be published. Required fields are marked with *.