Les contenus multilingues proposés sur le site sont issus d'une traduction automatique.
 

 
 
 
 
 
Français
English
Français
English
 
 
 
Afficher
 
 
 
 
 
Afficher
 
 

Autres sources

 
Saut de ligne
Saut de ligne

Vers une interdiction des systèmes d’armes létaux autonomes ?

Cahiers de la pensée mili-Terre n° 47
Sciences & technologies
Saut de ligne
Saut de ligne

Alors que le Parlement européen vient d’adopter une résolution appelant à l’adoption de règles de droit civil sur la robotique[1], les États membres de la Convention sur certaines armes classiques cherchent à réguler l’emploi de «robots soldats», qualifiés de systèmes d’armes létaux autonomes (SALA). Plusieurs États et organisations non gouvernementales plaident pour une interdiction des SALA.

[1] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique.


«Le maintien de l’humanité du soldat dans le combat futur constituera un enjeu majeur. Il imposera à l’armée de Terre de rester vigilante au risque de dénaturation de l’action militaire et à celui du geste froid de l’action à distance, porteuse d’indifférence».

Action terrestre future, EMAT, septembre 2016.

 

Depuis 2014 se tient chaque année, sous l’égide de la Convention sur certaines armes classiques (ou «CCW» pour Convention on Certain Conventional Weapons)[1], une réunion d’experts portant sur les systèmes d’armes létaux autonomes (SALA).

 

La CCW a pour but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputés infliger des souffrances inutiles ou injustifiables aux combattants, ou frapper sans discrimination les civils. Il s’agit d’une convention-cadre à laquelle ont été annexés cinq protocoles relatifs aux éclats non localisés, aux mines, pièges et autres dispositifs, aux armes incendiaires, aux armes laser aveuglantes et aux restes d’explosifs de guerre.

La dernière réunion d’expert portant sur les SALA s’est tenue du 11 au 15 avril 2016 autour de délégations diplomatiques et d’organisations non-gouvernementales (ONG) telles que le Comité international de la Croix-Rouge (CICR), Human Rights Watch ou encore l’International Committee for Robot Arms Control (ICRAC). La mission de ce groupe d’experts, présidé par Michaël Biontino, représentant permanent de l’Allemagne auprès de la Conférence du désarmement était «d’approfondir la discussion sur les questions en lien avec l’émergence des technologies dans le domaine des SALA, dans le contexte et à la lumière de la CCW»[2].

 

En décembre 2016, lors de la cinquième conférence des parties chargée de l’examen de la CCW, une recommandation a été adoptée visant à la création dès 2017 d’un groupe d’experts gouvernementaux chargés d’«explorer et de faire des recommandations concernant l’émergence des technologies dans le domaine des SALA». Ce groupe devra notamment prendre en considération deux questions principales: la définition des SALA et l’application du droit des conflits armés dans le contexte d’utilisation des SALA[3].

 

Cette décision marque la volonté de nombreux États de régir l’emploi de systèmes d’armes autonomes sur les théâtres d’opération.

 

Tentative d’identification de critères de définition d’un SALA

 

Qualifié de «robot soldat» ou «robot tueur», le droit international ne définit pas ce qu’est un SALA. Lors de la réunion d’expert d’avril 2016, plusieurs définitions ont été proposées.

 

Le Vatican définit un «système d’arme autonome» comme un «système d’arme capable d’identifier, de sélectionner et de déclencher une action sur une cible sans intervention humaine»[4].

 

Pour la délégation française, un SALA doit avoir les caractéristiques suivantes: une autonomie totale, impliquant une totale absence de supervision humaine et capable de s’adapter à son environnement, de viser et de faire feu avec un effet létal[5].

 

Un «système d’arme autonome» est défini par la Suisse comme «un système d’arme capable d’effectuer des missions régies par le droit international humanitaire en remplaçant partiellement l’humain au titre de l’usage de la force, notamment dans le cycle d’identification d’une cible»[6].

 

Des ONG proposent également de définir juridiquement les SALA. Pour le CICR, un «système d’arme autonome» renvoie à «tout système d’arme autonome dans ses fonctions critiques. Cela implique que le système d’arme peut sélectionner et attaquer des cibles sans intervention humaine».

 

À la lecture des définitions présentées, plusieurs caractéristiques spécifiques aux SALA semblent émerger:

  • l’autonomie et l’absence d’intervention ou de supervision humaine;
  • des capacités de sélection et d’attaque d’une cible;
  • l’effet létal du système d’arme;
  • l’adaptation à son environnement;
  • sa soumission au droit des conflits armés.

 

L’étude de ces définitions permet tout d’abord d’observer l’absence de consensus sur l’appellation même de l’objet qu’est le SALA. Certains évoquant le terme de système d’arme autonome, d’autres d’arme autonome ou de SALA.

 

La définition d’un SALA passe par l’étape nécessaire de définition de la notion d’autonomie. Il existe en effet plusieurs niveaux d’autonomie, allant de l’existence d’un contrôle ou d’une supervision humaine («Human in the loop») à l’autonomie totale («Human out of the loop»). De surcroît, il peut exister différents types d’autonomie, tels que l’autonomie opérationnelle, par laquelle le système réalise des fonctions de commande de faible niveau, et l’autonomie décisionnelle, par laquelle le système prendra des décisions substantielles sans communication avec l’opérateur humain. Enfin, la question se pose également de savoir si la notion d’autonomie doit englober des capacités d’apprentissage autonome. La définition de la notion d’autonomie, rapprochée à un système d’arme, est donc un préalable nécessaire à toute définition du SALA et à toute réforme du droit international.

 

Une autre problématique est soulevée quant à la définition des SALA. À ce jour et en l’état des avancées technologiques, des systèmes d’armes complètement autonomes n’existent pas. En effet, l’autonomie est aujourd’hui possible pour certaines tâches particulières, mais n’est pas encore utilisable pour une mission globale comprenant l’orientation, l’adaptation à l’environnement et la sélection, puis l’attaque d’une cible. Il peut donc apparaître prématuré de rechercher une définition juridique, donc contraignante, à un système inexistant. L’adoption d’une telle définition dans une convention internationale aurait, pour le moment, le seul avantage de permettre aux États d’utiliser la même terminologie pour éventuellement adapter le droit des conflits armés.

 

Nécessité d’adapter le droit des conflits armés?

 

Le droit des conflits armés, constitué principalement par les quatre conventions de Genève de 1949, les conventions de La Haye ainsi que les textes relatifs à la maîtrise des armements, est gouverné par quatre principes fondamentaux: humanité, distinction, proportionnalité, nécessité[7]. Ce droit s’applique en temps de conflit armé et fait peser des obligations sur les membres des forces armées, notamment dans l’éventualité d’une utilisation de systèmes d’armes autonomes. Il existe en effet un consensus international concernant le nécessaire respect par les SALA du droit des conflits armés.

 

La première disposition juridique directement applicable aux SALA est l’article 36 du protocole additionnel I aux conventions de Genève qui dispose que: «dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante a l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances». En conséquence, les États doivent, dès la phase d’étude et avant l’utilisation d’un SALA, s’assurer que ce système respecte le droit des conflits armés.

 

Cette nécessaire analyse préalable est aujourd’hui l’argument principal de nombreuses organisations, au premier rang desquelles on retrouve Human Rights Watch[8], pour appeler à l’interdiction des SALA. Certains États comme Cuba, l’Égypte, le Vatican et le Pakistan appellent aussi à une telle interdiction préventive. Il apparaît en effet qu’à ce jour ces systèmes autonomes ne peuvent se conformer aux principes fondamentaux du droit des conflits armés. Les algorithmes n’ont pas encore démontré leur capacité à faire preuve d’humanité ou à distinguer un ennemi armé et prêt à ouvrir le feu d’un ennemi armé qui se rend et contre lequel il est interdit d’ouvrir le feu. La difficulté que présente une telle interdiction pure et simple des SALA réside, comme énoncé précédemment, dans le fait que des systèmes d’armes entièrement autonomes ne sont pas complètement aboutis. Alors que le droit se doit de consacrer un usage, la démarche consisterait donc, de manière préventive, à interdire un système qui n’existe pas et qui n’a donc pas pu être pleinement évalué au regard du droit positif.

 

Une autre hypothèse d’évolution du droit, en dehors de l’interdiction, consisterait à adopter un sixième protocole à la CCW qui fixerait un régime spécifique applicable aux SALA. Ce régime pourrait alors traiter des conditions de conception des SALA, des cas dans lesquelles les SALA peuvent être utilisés (en imposant par exemple une supervision humaine) et des règles en matière de responsabilité en cas de dommages causés par les SALA (permettant de préciser qui du concepteur de l’algorithme, du fabricant du système d’arme ou du chef militaire pourrait être responsable). L’avantage essentiel que présenterait cette nouvelle régulation serait de permettre que, dès la conception des SALA, les fabricants puissent intégrer ces règles au cœur des systèmes, notamment dans les algorithmes. Les démarches éthiques et juridiques ne doivent pas être des obstacles au progrès technologique. En toute hypothèse, il apparaît aujourd’hui nécessaire de maintenir l’homme dans la boucle des décisions pouvant être prises par les SALA.

 

Nécessité de maintenir l’homme dans la boucle

 

Lors de la dernière réunion d’experts portant sur les SALA, le ministère de la défense japonais a clairement pris la position selon laquelle le pays ne «développerait pas de robots, sans hommes dans la boucle, capables de porter atteinte à la vie humaine»[9].

 

Déconnecter l’homme d’un système d’arme autonome ayant des capacités létales présente de nombreux dangers. Cette situation déshumaniserait le champ de bataille et reviendrait à supprimer tout agent moral dans les situations les plus critiques où l’intelligence humaine et l’intuition ne peuvent aujourd’hui être remplacées. De surcroît, cette déshumanisation conduirait à diminuer considérablement le degré à partir duquel la force pourrait être engagée, risquant ainsi de conduire à l’escalade des conflits.

 

De plus, les SALA n’ayant pas de personnalité juridique[10], il serait quasiment impossible, en l’absence de règles juridiques précises, de déterminer les responsabilités lorsqu’un dommage serait causé suite à une décision prise de manière autonome par un SALA.

 

Enfin, une autonomie totale des SALA conduirait au risque d’imprévisibilité des réactions du système d’arme, d’impossibilité de contrôle des effets de l’arme, et établirait une rupture dans la liaison entre ce système et le chef militaire, ne permettant plus un contrôle opérationnel réel.

 

Certains États comme la Pologne plaident pour que le lien juridique entre l’homme et le système d’arme autonome passe par la notion de «Meaningful human control» (contrôle humain significatif), impliquant que certaines contraintes opérationnelles (définition de la cible par exemple) soient imposées par l’homme[11]. Cette condition permettrait de ne pas déshumaniser totalement la guerre.

 

L’autonomie décisionnelle ne doit cependant pas être bannie des théâtres d’opération. Il est en effet de nombreuses missions dans lesquelles des systèmes autonomes peuvent être d’une véritable utilité. Il en est ainsi du déminage, des missions humanitaires, du renseignement ou des interventions en milieux contaminés. Le combat par les robots doit quant à lui rester collaboratif et ne doit pas être délégué en totalité à ces derniers.

 

--------------

Avocat au barreau de Paris spécialisé dans le droit de la défense et de la sécurité, le Lieutenant François GORRIEZ sert dans la réserve opérationnelle de l’armée de Terre après avoir suivi la formation initiale des officiers de réserve à l’École militaire de Saint-Cyr Coëtquidan. Il est actuellement affecté à l’état-major de zone de défense et de sécurité d’Ile de France, où il conduit des études juridiques dans le cadre de l’opération Sentinelle. Il a étudié le droit en France et au Canada et a été auditeur jeune de l’Institut national des hautes études de sécurité et de justice (INHESJ) en 2013. Il préside la Commission robotique militaire de l’Association du droit des robots.

 

[1] Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination,10 octobre 1980.

[2] Déclaration introductive de Michaël Biontino, représentant permanent de l’Allemagne auprès de la Conférence du désarmement, Genève, 11 avril 2016 (l’ensemble des textes cités dans cet article sont disponibles sur www.unog.ch).

[3] «Advanced Version, Recommendations to the 2016 Review Conference», submitted by the Chairperson of the Informal Meeting of Experts.

[4] «Elements Supporting the Prohibition of Lethal Autonomous Weapons Systems», documents de travail présentés par le Vatican (l’ensemble des éléments cités sont traduits librement de l’anglais au français).

[5] «Non paper characterization of a laws», documents de travail présentés par la France.

[6] «Towards a “compliance-based” approach to LAWS», documents de travail présentés par la Suisse.

[7] Pour une étude approfondie du droit des conflits armés, voir le Manuel de droit des conflits armés, édition 2012, Direction des affaires juridiques du ministère de la Défense.

[8] «Making the Case, The Dangers of Killer Robots and the Need for a Preemptive Ban», Human Rights Watch, 9 décembre 2016.

[9] «Japan view’s on issues relating to LAWS», documents de travail présentés par le Japon.

[10] Sur la personnalité juridique des robots, voir notamment A. Bensoussan, J. Bensoussan, «Droit des robots», Larcier, 2015.

[11] Killer Robots and the Concept of Meaningful Human Control Memorandum to Convention on Conventional Weapons (CCW) Delegates, Human Rights Watch, 11 avril 2016.

 

Séparateur
Titre : Vers une interdiction des systèmes d’armes létaux autonomes ?
Auteur(s) : Lieutenant (CR) François GORRIEZ
Séparateur


Armée