L’auteur tient à remercier le major aviateur e. r. Lode Dewaegheneire, Solène Jomier, Yannick Quéau et Merel Selleslach pour leurs précieux commentaires sur le présent éclairage.

Le 11 novembre 2018, António Guterres, Secrétaire général des Nations unies, déclarait : « Imaginez les conséquences d’un système autonome capable de repérer et d’attaquer de lui-même des êtres humains. J’invite les États à interdire ces armes qui sont politiquement inacceptables et moralement révoltantes »[1].

Ces mots très alarmants d’António Guterres désignent une catégorie d’armes communément nommée « robots-tueurs ». Si ces armes n’existent pas encore, elles suscitent pourtant déjà une opposition de plus en plus massive de la communauté internationale et de la société civile. En août 2018, trois États (l’Autriche, le Brésil et le Chili) ont d’ailleurs appelé à « négocier un instrument juridiquement contraignant pour assurer un contrôle significatif des fonctions critiques des armes létales autonomes »[2]. Et un large consensus se dégage désormais au sein des États sur la nécessité de conserver une certaine forme de contrôle humain sur le recours à la force[3]. C’est pourquoi les deux prochaines années pourraient être cruciales.

Crédit photo : Uran-9 combat unmanned ground vehicle, Military-technical
forum ARMY-2016 – Vitaly V. Kuzmin, CC BY-SA 4.0, Wikimedia Commons

De quoi parle-t-on exactement ? Pourquoi interdire ces armes ? Et comment procéder ? L’objectif du présent éclairage est de passer en revue ce que nous savons de ces armes et des raisons avancées pour les interdire, avant de dresser un aperçu des derniers développements diplomatiques en vue d’un traité d’interdiction.

Qu’est-ce qu’un robot-tueur ?

Le Comité international de la Croix-Rouge (CICR) a proposé en début d’année 2014 une définition générale évoquant « des armes qui peuvent sélectionner et attaquer des cibles de manière indépendante, c’est-à-dire avec une autonomie dans les “fonctions critiques” d’acquisition, de suivi, de sélection et d’attaque de cibles »[4]. En d’autres termes, il s’agit d’armes qui seraient entièrement autonomes.

La Campagne contre les robots-tueurs y appelle à « des obligations positives pour aider à garantir qu’un contrôle humain significatif [soit] maintenu dans l’utilisation de tous les autres systèmes qui sélectionnent et engagent des cibles »

Plusieurs processus qui ont conduit à des traités de contrôle des armements par le passé ont laissé l’élaboration des définitions pour la négociation finale.

C’est pourquoi il n’est pas impossible d’imaginer que ce scénario se répète pour les robots-tueurs. Ainsi, dans une note proposant « les éléments-clés d’un traité », la Campagne contre les robots-tueurs[5] ne propose pas de définition, mais plutôt des éléments permettant de préserver un contrôle humain significatif sur l’usage de la force[6]. En plus d’une interdiction des armes entièrement autonomes, la Campagne contre les robots-tueurs y appelle à « des obligations positives pour aider à garantir qu’un contrôle humain significatif [soit] maintenu dans l’utilisation de tous les autres systèmes qui sélectionnent et engagent des cibles »[7].

Des armes de plus en plus autonomes

Des armes « de plus en plus autonomes » préfigurant des robots-tueurs existent déjà. On les retrouve dans les catégories suivantes : systèmes de défense aérienne, systèmes de protection active, robots sentinelles antipersonnel, munitions guidées et munitions rodeuses[8]. Mais on parle ici de technologies en plein développement, ce qui signifie que d’autres verront probablement le jour. Les principaux pays qui développent ou produisent ces armes sont la Chine, la Corée du Sud, les États-Unis et la Russie[9]. À ces quatre États, il convient d’ajouter, dans une moindre mesure, l’Allemagne, l’Australie, l’Estonie, la France, l’Inde, Israël, l’Italie, le Japon, la Norvège, la Pologne, Singapour, la Suède, le Royaume-Uni, la Turquie, ainsi que Taiwan[10].

Un des premiers exemples de ces armes est le robot-sentinelle antipersonnel SGR-A1 développé dans les années 2000 par la firme Samsung Techwin (devenue en 2015 Hanwha Techwin[11]). Comme l’écrivait le GRIP en novembre 2017, « ce robot-sentinelle équipé de caméras, de microphones, de haut-parleurs et d’une mitrailleuse est doté d’un mode de sélection et de traitement des cibles automatiques »[12]. Selon BBC News, la mitrailleuse du SGR-A1 « peut être commutée en mode autonome mais… est actuellement exploitée par des humains via des liaisons caméra »[13].

Un exemple plus récent est le robot terrestre Uran-9, un « système robotique polyvalent de combat » développé par la firme russe Kalachnikov Concern et commercialisé depuis 2016[14]. Télécommandé à une distance de trois kilomètres et « faisant usage d’intelligence artificielle », l’Uran-9 « peut avancer en système automatique laissant à l’opérateur le choix des cibles ». D’après Kalachnikov Concern, « de nombreuses solutions scientifiques et techniques ont été élaborées [sur l’Uran-9], qui seront encore développées »[15]. Son armement de base comprend un canon de 30 mm, quatre missiles antichars à guidage laser et une mitrailleuse[16]. Testé en Syrie, l’Uran-9 y aurait cependant perdu le contact avec la station de contrôle à 18 reprises[17]. Selon RIA Novosti, « Le robot a également montré le fonctionnement instable du canon automatique de 30 mm, le déclenchement intempestif des circuits de lancement et la défaillance du canal d’imagerie thermique de la station de visée optique »[18].

Un autre exemple est le « Switchblade » (littéralement le « couteau à cran d’arrêt »), un missile rodeur miniature récemment commercialisé par la firme américaine AeroVironment. Dans sa version initiale, le Switchblade ne pèse que 2,5 kilogrammes et peut être rangé dans un sac à dos. Son coût serait de l’ordre de 70 000 USD[19]. Dans une version plus élaborée, une fois sur la zone cible, il peut y flâner pendant plus de 20 minutes pour identifier sa cible avant de plonger dessus[20]. Selon l’entreprise, « Ce missile létal volant miniature peut être utilisé manuellement ou de manière autonome »[21] et ses versions futures pourraient « sélectionner des cibles de manière autonome avec un soutien minimal de la part de l’homme dans la boucle »[22].

… le respect du droit international humanitaire nécessite une capacité d’analyse et d’empathie dont ne dispose pas un robot-tueur…

Un dernier exemple est le bateau de combat sans pilote JARI actuellement développé par la firme d’État chinoise China Shipbuilding Industry Corporation (CSIC)[23]. Ce bateau de 15 mètres de long est notamment équipé de missiles à lancement vertical, d’un lance-torpilles, d’une mitrailleuse et d’un lance-roquettes montés à l’avant[24]. Sa mitrailleuse tire automatiquement sur des cibles de surface se rapprochant rapidement, et ce après des coups de semonce[25]. Le JARI utilise l’intelligence artificielle pour naviguer de manière autonome et entreprendre des activités de combat une fois qu’il en reçoit l’ordre. Il peut opérer seul ou « en essaim » avec d’autres[26], en mode autonome, semi-autonome ou commandé à distance[27]. D’après ses développeurs, le JARI aura encore besoin de tests supplémentaires « pour libérer tout son potentiel en tant que drone de combat entièrement autonome »[28].

Pourquoi interdire les robots-tueurs ?

Comme le montrent les quatre exemples évoqués ci-dessus, des robots-tueurs capables de sélectionner et d’attaquer des cibles de manière indépendante pourraient bientôt ne plus appartenir à la science-fiction. Le niveau de contrôle humain sur les armes autonomes décrites plus haut est en effet de plus en plus réduit, ouvrant progressivement la porte à des situations où la décision de tuer sera prise par une machine, et non plus par une personne. Ce transfert de responsabilité de l’homme à la machine pose toute une série de problèmes, notamment d’ordre juridique et militaire.

Un premier problème — majeur — concerne le respect du droit international humanitaire : en particulier l’obligation pour les parties en conflit de faire la distinction entre combattants et non-combattants, de garantir que les victimes civiles et les dommages causés à des bâtiments civils ne soient pas disproportionnés par rapport aux gains militaires attendus, ainsi que de prendre les précautions nécessaires pour protéger les populations civiles. Comme le souligne le CICR, « Ces obligations ne peuvent pas être transférées à une machine »[29]. Car le respect du droit international humanitaire nécessite une capacité d’analyse et d’empathie dont ne dispose pas un robot-tueur, aussi avancé soit-il. Pour reprendre les termes du lieutenant-colonel retraité John McBride, « Une machine déterminerait si la cible est un combattant uniquement sur la base d’une programmation probablement développée dans un laboratoire stérile des années avant que la décision de tuer ne soit prise »[30].

Le risque [existe] que le recours aux robots-tueurs ne facilite le déclenchement de conflits armés.

De plus l’impossibilité pour un robot-tueur d’être traduit en justice en cas de crime commis constitue une difficulté supplémentaire. En d’autres termes, un robot-tueur pourrait frapper en toute impunité.

Un autre problème concerne le risque que le recours aux robots-tueurs ne facilite le déclenchement de conflits armés. D’abord parce qu’il élimine les dernières barrières psychologiques à l’utilisation de la force[31]. Ensuite, parce qu’en réduisant le coût humain d’un conflit armé, le recours aux robots-tueurs rend l’entrée en guerre plus facile et réduit l’incitation à trouver une solution politique. Comme le souligne l’organisation néerlandaise PAX, le recours aux robots-tueurs crée également le risque d’une course aux armements, ainsi que celui d’une escalade rapide et accidentelle de conflits où des robots-tueurs s’affronteraient à des vitesses ne permettant plus un contrôle humain. Les robots-tueurs étant relativement peu coûteux et faciles à copier, ils pourraient également proliférer et tomber aux mains de groupes terroristes. Voire être piratés. Enfin, les interactions entre robots-tueurs ennemis pourraient être très imprévisibles[32].

À quand un traité sur les robots-tueurs et dans quelle enceinte ?

Depuis 2013, 78 États ont déjà appelé à l’interdiction des robots-tueurs, que ce soit à travers des déclarations nationales[33] ou des déclarations de groupes[34]. Car les États parties à la Convention sur certaines armes classiques (CCW) discutent depuis mai 2014 des « questions liées aux technologies émergentes dans le domaine des systèmes d’armes létales autonomes »[35]. Cependant, aucun accord n’a encore été trouvé au sein de cette enceinte à propos d’une éventuelle interdiction des robots-tueurs, laissant de fait libre cours aux firmes développant ces armes.

En effet, une dizaine d’États s’opposent toujours à la négociation d’un traité sur les robots-tueurs, qu’ils jugent « prématurée »[36]. Parmi ces États, la Russie a notamment déclaré : « Nous ne sommes pas favorables à un résultat concret de nos travaux »[37]. Pour leur part, les États-Unis s’opposent à toute référence à la nécessité d’un contrôle humain sur l’usage de la force[38]. Vu que les États parties à la CCW prennent leurs décisions sur la base du consensus, il est difficile d’imaginer comment un accord crédible sur les robots-tueurs pourrait se dégager dans cette enceinte. Pourtant, comme l’écrit Human Rights Watch, « la grande majorité des pays qui se sont exprimés à ce jour considèrent la prise de décision, le contrôle ou le jugement humains comme essentiels à l’acceptabilité et à la légalité des systèmes d’armes »[39].

Une dizaine d’États s’opposent toujours à la négociation d’un traité sur les robots-tueurs.

En raison de la pandémie de la COVID-19, les discussions au sein de la CCW ont été reportées et devraient reprendre en 2021 sous la présidence de la Belgique[40]. Le 30 septembre 2020, le nouveau gouvernement fédéral belge écrivait à ce propos : « Notre pays prendra l’initiative en vue d’arriver à un cadre réglementaire sur les systèmes des armes entièrement autonomes, en vue d’une interdiction internationale »[41]. Au vu des blocages persistants au sein de la CCW, la Belgique devra rapidement envisager d’autres enceintes si elle veut faire aboutir son initiative et répondre ainsi à l’appel du Secrétaire général de l’ONU « à interdire ces armes qui sont politiquement inacceptables et moralement révoltantes ».

Auteur

Directeur adjoint du GRIP, Stan Brabant a longuement travaillé pour Handicap International. Au Cambodge et en Afghanistan d’abord, et ce au sein de programmes de déminage et de réduction des accidents causés par des mines et autres engins non explosés. Il a ensuite conduit la recherche et le plaidoyer de l’organisation en matière d’armements. Il a fait partie du comité éditorial du Landmine and Cluster Munition Monitor et servi comme chercheur et coordinateur thématique. Il a également été à l’origine du processus d’interdiction des armes à sous-munitions en Belgique, le premier pays à interdire ces armes en février 2006. Il a ensuite accompagné le processus d’Oslo qui a conduit en 2008 à la Convention sur les armes à sous-munitions. Dans ce cadre, il a initié plusieurs projets de recherche sur l’impact humanitaire de ces armes et a lancé l’initiative Ban Advocates, un projet-pilote permettant la participation de personnes affectées par les armes à sous-munitions dans le processus diplomatique conduisant à leur interdiction. Il a ensuite rejoint les Nations Unies afin d’accompagner le Laos dans sa mise en œuvre de la Convention sur les armes à sous-munitions et sa présidence de la Première Conférence des Etats parties à la Convention.

Robots-tueurs : à quand un traité d’interdiction ?

 

[1]. Organisation des Nations unies, « Allocution du Secrétaire général au Forum de Paris sur la paix », 11 novembre 2018.

[2]. Gouvernements de l’Autriche, du Brésil et du Chili, « Proposal for a mandate to negotiate a legally-binding instrument that addresses the legal, humanitarian and ethical concerns posed by emerging technologies in the area of lethal autonomous weapons systems (LAWS) », Document de travail présenté au Groupe d’experts gouvernementaux de la Convention sur les armes classiques sur les systèmes d’armes létales autonomes, 8 août 2018.

[3]. Human Rights Watch, Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control, août 2020.

[4]. International Committee of the Red Cross, Autonomous weapon systems: technical, military, legal and humanitarian aspects, Rapport d’une réunion d’experts, mars 2014, p. 9.

[5]. La Campagne contre les robots-tueurs est une coalition de 171 organisations non gouvernementales de 65 pays qui s’emploient à interdire les armes entièrement autonomes et à conserver un contrôle humain significatif sur l’utilisation de la force. Le GRIP a rejoint la Campagne en octobre 2020.

[6]. « Contrôle humain significatif » signifie le contrôle de la sélection et de l’engagement des cibles, c’est-à-dire le contrôle des « fonctions critiques » d’une arme : quand, où et comment les armes sont utilisées ; contre quoi ou contre qui elles sont utilisées ; et les effets de leur utilisation. En d’autres termes, des humains devraient exercer un contrôle sur les attaques individuelles et non pas simplement sur les opérations dans leur globalité. Human Rights Watch et International Human Rights Clinic, Killer Robots and the Concept of Meaningful Human Control, avril 2016 ; Article 36, Killing by Machine: Key Issues for Understanding Meaningful Human Control, avril 2015.

[7]. Campaign to Stop Killer Robots, Key Elements of a Treaty on Fully Autonomous Weapons, novembre 2019.

[8]. SIPRI, Mapping the development of autonomy in weapon systems, novembre 2017, p. 36.

[9]. Justin Haner et Denise Garcia, « The Artificial Intelligence Arms Race: Trends and World Leaders in Autonomous Weapons Development », Global Policy, volume 10, septembre 2019.

[10]. PAX, Slippery Slope: The arms industry and increasingly autonomous weapons, novembre 2019.

[11]. The Korea Observer, « Hanwha wraps up takeover of four Samsung arms », 29 juin 2015.

[12]. Denis Jacqmin, Robots-tueurs : encadrement ou interdiction ?, Éclairage du GRIP, 13 novembre 2017.

[13]. Jane Wakefield, « South Korean university boycotted over ‘killer robots’ », BBC News, 5 avril 2018.

[14]. Rostec, « Rosoboronexport to start promoting Uran-9 combat robotic system », 30 décembre 2015.

[15]. Sputnik News, « Le robot militaire Uran-9 mis en service dans l’armée russe », 24 janvier 2019 ; Sergyi Way, « Uran-9 Combat Robots began to enter into service in the Armed Forces of Russia », Army Guide, 25 janvier 2019.

[16]. Ministère des Armées, « ARMYA 2016 », 23 septembre 2016 .

[17]. Dylan Malyasov, « Combat tests in Syria brought to light deficiencies of Russian unmanned mini-tank », Defence Blog, 18 juin 2018.

[18]. RIA Novosti, « Применение боевого робота “Уран-9” в Сирии выявило его недостатки », 19 juin 2018.

[19]. Center for the study of the drone, « Loitering Munitions », Factsheet, 2017.

[20]. Paolo Valpolini, « Switchblade 600, the new Medium Range Loitering Munition », European Defence Review, 2 octobre 2020.

[21]. AeroVironment, « Switchblade® Loitering Missile », Datasheet, 2019.

[22]. David Hambling, « AeroVironment Aims To Disrupt Industry With New Loitering Missile », Forbes, 1er octobre 2020.

[23]. Kelvin Wong, « China’s CSIC expands unmanned surface warfare portfolio with JARI USV », Jane’s, 27 août 2019.

[24]. Navy Recognition, « China has launched sea trials of new JARI-USV armed Unmanned Surface Vessel », 25 décembre 2019.

[25]. David B. Larter, « China is working on killer robot ships of its own », Defense News, 18 février 2019.

[26]. Navy Recognition, « China has launched sea trials of new JARI-USV armed Unmanned Surface Vessel », 25 décembre 2019.

[27]. China Arms, « China’s JARI-USV unmanned ship has its first trial: detailed characteristics », 25 janvier 2020.

[28]. Liu Xuanzun, « China launches world-leading unmanned warship », Global Times, 22 août 2019.

[29]. International Committee of the Red Cross, « Views of the International Committee of the Red Cross (ICRC) on autonomous weapon systems », 11 avril 2016.

[30]. John McBride, « The military personnel’s call for a ban on autonomous weapons », Campaign to Stop Killer Robots.

[31]. Assemblée générale des Nations unies, Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns, 9 avril 2013, p. 12.

[32]. PAX, « Ten reasons to ban killer robots », Factsheet.

[33]. 30 États l’ont fait dans le cadre de déclarations nationales (Algérie, Argentine, Autriche, Bolivie, Brésil, Chili, Chine, Colombie, Costa Rica, Cuba, Djibouti, Équateur, Égypte, El Salvador, Ghana, Guatemala, Irak, Jordanie, Mexique, Maroc, Namibie, Nicaragua, Ouganda, Pakistan, Palestine, Panama, Pérou, Saint-Siège, Venezuela et Zimbabwe). Il convient de préciser que si la Chine a bien appelé à interdire l’utilisation des armes entièrement autonomes, cet appel ne couvre pas le développement et la production de ces armes. Campaign to Stop Killer Robots, « Country Positions on Negotiating a Treaty to Ban and Restrict Killer Robots », Factsheet, septembre 2020.

[34]. 48 États l’ont fait dans le cadre de déclarations communes qu’ils ont endossées (Afghanistan, Afrique du Sud, Antigua-et-Barbuda, Arabie saoudite, Bahreïn, Bangladesh, Bélarus, Bénin, Bolivie, Burkina Faso, Burundi, Cambodge, Cameroun, Cap-Vert, Côte d’Ivoire, Chypre, République dominicaine, Émirats arabes unis, Gabon, Grenade, Guinée-Bissau, Honduras, Inde, Jamaïque, Koweït, RDP Lao, Lesotho, Liban, Liberia, Madagascar, Maldives, Mali, Malte, Maurice, Mongolie, Niger, Ouzbékistan, Philippines, Qatar, Saint-Vincent-et-les Grenadines, Sénégal, Seychelles, Sierra Leone, Sri Lanka, Togo, Tunisie, Turkménistan, Zambie). Campaign to Stop Killer Robots, « Country Positions on Negotiating a Treaty to Ban and Restrict Killer Robots », septembre 2020.

[35]. United Nations Geneva, « Background on Lethal Autonomous Weapons Systems in the CCW ».

[36]. Il s’agit des États suivants : Australie, République de Corée, États-Unis, France, Inde, Israël, Pays-Bas, Royaume-Uni, Russie et Turquie. Campaign to Stop Killer Robots, « Country Positions on Negotiating a Treaty to Ban and Restrict Killer Robots », septembre 2020.

[37]. Intervention de la Fédération de Russie, Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes, 16 novembre 2017.

[38]. Intervention des États-Unis, Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes, 21-25 septembre 2020.

[39]. Human Rights Watch, Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control, août 2020.

[40]. Chambre des représentants de Belgique, Exposé d’orientation politique : Affaires étrangères, Affaires européennes, Commerce extérieur et Institutions culturelles fédérales, 5 novembre 2020,

[41]. Paul Magnette et Alexander De Croo, Rapport des formateurs – Verslag van de formateurs, 30 septembre 2020, p. 54.