Les contenus multilingues proposés sur le site sont issus d'une traduction automatique.
 

 
 
 
 
 
Français
English
Français
English
 
 
 
Afficher
 
 
 
 
 
Afficher
 
 

Autres sources

 
Saut de ligne
Saut de ligne

Les machines autonomes, vers la fin de la guerre comme entreprise humaine?

Cahiers de la pensée mili-Terre n° 44
Sciences & technologies
Saut de ligne
Saut de ligne

Les robots couplés à l’intelligence artificielle (les machines autonomes) pourraient représenter la prochaine rupture stratégique dans le domaine militaire car leur symbiose permettrait à la machine de décider en toute autonomie sur un champ de bataille déserté par l’homme.


 L’alerte lancée en 2015 par Elon Musk, célèbre fondateur d’entreprises innovantes telles que Space X ou Tesla: «Il faut interdire les robots tueurs», a provoqué son lot d’articles dans les journaux et certaines revues scientifiques, mais sans réellement réussir à émouvoir l’opinion publique ou les décideurs.

Pourtant, ce sujet crucial mérite que le monde s’y intéresse; car lorsque les signaux faibles convergent, il devient possible d’imaginer une menace nouvelle aux effets encore méconnus. Il est donc temps de prendre en compte l’arrivée des machines autonomes sur le champ de bataille terrestre, car la question n’est plus de savoir si ces machines apparaîtront, mais quand et comment. Le terme machine autonome, ou systèmes d’armes létaux autonomes (SALA), sera préféré à robot. C’est aussi celui consacré par l’état-major des armées ou le DoD[1] pour désigner des engins qui se meuvent sur le champ de bataille et qui exécutent leur mission en s’adaptant à leur environnement. L’accent sera ici mis sur les progrès des machines autonomes terrestres[2], les drones aériens ou maritimes ayant déjà fait l’objet de nombreuses publications; ces derniers pourront toutefois être évoqués à titre d’exemples. Par ailleurs, le concept d’intelligence artificielle (IA), dont la renommée est grandement liée à la science-fiction, doit être complété par celui de machine learning ou deep learning, qui rend mieux compte de la réalité de cette technologie et qui connaît des progrès exponentiels ces derniers mois. Prises à part, la robotique et l’IA ont atteint ces dernières années des degrés de maturité divers, mais s’est-on posé la question de la nature des progrès qui serait engendrés par leur mise en commun? De la même manière, à l’aune de l’application de ces technologies, peut-on affirmer de manière péremptoire que l’homme sera dans le futur toujours indispensable dans la boucle de décision?

Ainsi, la symbiose de la robotique et de l’intelligence artificielle pourrait mener à un bouleversement singulier des rapports de l’homme à la guerre. La machine, dotée de capacités d’auto-apprentissage, pourrait décider seule de la manière de conduire sa mission, mais aussi de détruire une cible. Le changement de paradigme se situe à ce niveau: l’exclusion de l’homme de la boucle de décision.

Les technologies sont d’ores et déjà disponibles ou en passe d’atteindre des maturités suffisantes. Avec elles se posent des enjeux majeurs, à la fois politiques et stratégiques, dans l’art de mener la guerre. Les décisions à prendre engageront la France dans la voie de la robotique ou feront peser le risque d’un déclassement stratégique de notre pays.

 

Des technologies matures ou en passe de le devenir dans un avenir proche…

 

Les technologies nécessaires au développement des machines autonomes sont d’ores et déjà disponibles et leur utilisation dans le domaine militaire avérée. En effet, les machines autonomes bénéficient d’avancées spectaculaires liées à l’augmentation exponentielle des puissances de calcul et du développement de l’IA, au point que des réflexions sur leur emploi commencent à apparaître.

  • Les machines possédant un certain degré d’autonomie sont déjà une réalité. Tout d’abord, la robotique militaire trouve des domaines d’application dans le développement très rapide des technologies civiles. Il s’agit d’un domaine ou la dualité des technologies est évidente. Jusqu’au montage de moyens létaux, qui in fine les distinguent, rien ne différencie un robot civil d’un militaire. Les engins actuels ne sont pour l’heure pas des robots humanoïdes de type Terminator, issus des films d’anticipation, mais des plat-formes autonomes basées sur des engins à roues, chenilles, pattes ou rampants. Actuellement, les États-Unis, la Russie, le Japon, la Corée du Sud se lancent dans une course à l’équipement et à la réalisation d’engins sophistiqués.

 

Les États-Unis, qui sembleraient déjà en pointe dans le domaine, tiennent à garder leur avance. Le secrétaire adjoint de la défense des États-Unis Robert O. Work a ainsi annoncé le 14 décembre un effort sans précédent concernant le budget 2016[3] (14 milliards de dollars) dédié au développement des technologies dans cinq domaines clés, tous liés à la robotique ou à l’intelligence artificielle[4].

De fait, les résultats sont à la hauteur des efforts financiers consentis. Les exemplaires du démonstrateur Spot de Boston Dynamics atteignent un niveau de mobilité en terrain accidenté et d’adaptabilité saisissant[5].

La DARPA[6], lors de son concours annuel le robotics challenge, permet de démontrer les avancées en matière de mobilité et de d’adaptabilité des machines autonomes en réunissant les meilleures entreprises mondiales. Selon une étude de WinterGreen Research, le marché de la robotique militaire pourrait plus que doubler pour atteindre 10 milliards de dollars en 2021[7], et représente ainsi le secteur de la défense avec les projections de croissance les plus intéressantes.

En Corée du Sud, les exemplaires des plate-formes autonomes SGR A1 de Samsung Tech, en service sur la frontière entre les deux Corées, possèdent deux modes, dont un qui permet à la machine de décider en toute autonomie de la mise en œuvre de ses armes.

La Russie fait également de gros efforts dans le domaine de la robotique en s’appuyant sur une longue tradition issue de la conquête spatiale. Le pays compte faire assurer la surveillance de ses sites de missiles nucléaires par des plate-formes autonomes dès 2019 et a annoncé fin 2015 qu’un groupe de machines autonomes Plateform-M avait été intégré avec succès dans une campagne d’exercices militaires en Baltique.

Selon le docteur Thierry Berthier, qui effectue des recherches au sein de la chaire cybersécurité et cyberdéfense de Saint-Cyr, l’objectif d’autonomie que se sont fixés les chercheurs russes les oblige à doter les robots de toujours plus de capacités d’adaptation et de résilience. Ce besoin implique ainsi une IA toujours plus puissante et auto-apprenante.

  • Indubitablement, cette IA qui est évoquée si souvent dans la production scientifique, progresse à la vitesse de la loi de Moore[8] et, s’il faut reconnaître que ses capacités sont encore loin d’égaler le cerveau humain, le machine learning et le deep learning lui ont fait franchir de nouveaux paliers en 2015. Il ne s’agit pas de se lancer dans des prédictions ni même d’évoquer ce fameux point de singularité[9] dont parle Raymond Kurzweil (professeur au MIT[10] et futurologue de Google), mais juste de constater les progrès factuels de l’IA. En fait, les scientifiques distinguent l’IA «forte» et l’IA «faible». Pour schématiser, cela revient à distinguer d’une part une IA «forte», consciente d’elle-même, mais dont les scientifiques s’accordent pour estimer qu’elle est encore hors de portée, et d’autre part une IA «faible» qui auto-apprend. Or c’est bien l’IA «faible» qui connaît les avancées les plus marquantes ces derniers mois grâce notamment aux architectures en réseaux de neurones, qui sont des réseaux complexes d’unités de calcul interconnectés en strates, à l’image des connexions neuronales du cerveau. Se rajoute à cette puissance de calcul le machine learning, qui consiste à alimenter l’ordinateur en données à apprendre, mais surtout le deep learning, qui représente une capacité d’auto-apprentissage permettant à la machine de constamment améliorer ses processus d’exécution des missions. Qui ne s’est jamais demandé comment fonctionne l’assistant Siri[11] d’Apple ou la compréhension vocale sous Android? Ces solutions exploitent le machine learning et donc l’IA. Il faut se rappeler que des solutions logicielles capables de comprendre le langage nécessitaient encore une phase d’apprentissage il y a deux ans. Maintenant, elles sont disponibles en ligne et vous comprennent immédiatement.

 

Ensuite, ce domaine où les technologies sont parfaitement duales voit le monde de la défense prendre du retard par rapport au monde civil. Et ce sont bien les grandes entreprises du numérique qui mènent l’innovation, a dû reconnaître récemment Robert O. Work[12]. Les GAFA – pour Google Amazon Facebook et Apple – dépensent des budgets en R et D qu’aucun laboratoire européen ne peut approcher. Ainsi, le développement de Watson d’IBM révèle des capacités très intéressantes, cette IA «faible» étant capable de donner, après apprentissage du cas, un diagnostic médical fiable à 95% (comparé à celui d’un médecin qui n’est que de 70%). La particularité de Watson est de tenir dans une boîte à chaussures et de pouvoir assimiler des données qui ne sont pas propres à un domaine. Sur le plan de la reconnaissance faciale, Facebook, avec le projet Fair, arrive à un degré de reconnaissance efficace des visages de 93%. La reconnaissance faciale est un domaine dont l’utilité pour les SALA est évidente.

 

  • La vision communément admise en France est que la machine ne doit pas décider en toute autonomie car il revient à l’humain de garder le contrôle final du tir[13]. Il s’agit-là d’une posture éthique qui n’est pas forcément partagée par tous les pays qui développent des SALA. En effet, la multiplication des machines autonomes, voire leur usage en essaim, rendra la tâche du contrôleur humain très délicate. D’une part, l’opérateur pourra difficilement suivre l’évolution d’une machine qui prendra des décisions à des vitesses hors de portée de l’humain, et, d’autre part, la masse d’informations à traiter saturera la capacité d’analyse de l’opérateur. Par exemple, le F35 devrait à moyen terme disposer d’un essaim de drones commandés par le pilote et dont la mission serait de reconnaître le vol de l’aéronef voire de mener des attaques à son profit[14]. Mais l’USAF n’envisage d’ores et déjà cette technologie que dans le cadre d’une IA qui viendrait prendre le contrôle de l’essaim (projet CODE). De fait, c’est de l’usage des machines autonomes que naîtra le besoin croissant en IA.

 

Par conséquent, si les machines actuelles sont encore contrôlées par l’homme, cette situation est amenée à évoluer; c’est en cela que se trouve le point d’achoppement entre les différentes visions de l’usage des machines autonomes. En effet, la vision défendue aux États-Unis et ailleurs par les partisans de l’IA prône une autonomisation des machines, et ce dès que la technologie le permettra. L’argument avancé est de disposer avec les SALA, comme le souligne Ronald Arkin, de machines et non d’individus, donc d’entités non soumises aux sentiments comme peut l’être le soldat et dans lesquelles il serait possible d’implémenter des règles éthiques contraignantes[15].

 

…Les enjeux liés aux plate-formes autonomes sont cruciaux…

 

Les enjeux sont vitaux car ces technologies provoqueront une rupture à la fois dans la manière de penser la guerre mais aussi dans la manière de la mener. Ces ruptures, à la fois politiques et stratégiques, sont à anticiper pour ne pas les subir.

  • De fait, il faut se préparer à une rupture dans la pensée militaire, car l’IA pourrait permettre à la machine de décider sans l’homme. Alors que, jusqu’à notre époque, la guerre a toujours été menée par les hommes contre les hommes, la perception des conflits serait totalement remise en cause. Il s’agit de préparer et penser la guerre comme une entreprise qui pourrait être menée pour partie par des machines autonomes et seulement supervisée par l’homme. Ainsi, il est possible d’imaginer que les cellules de planification des états-majors prévoient des missions spécifiques pour les machines autonomes avec la désignation des objectifs à atteindre. Une fois les ordres donnés, les machines seraient responsable de l’exécution de la mission en toute autonomie, et seulement supervisées par un décideur militaire.
  • Car il est une chose certaine qui se vérifie depuis que l’homme mène des guerres: si une avancée technique est disponible, elle est toujours utilisée à des fins militaires, et ce au maximum de ses possibilités. Cette vérité a traversé les âges, du remplacement du bronze par le fer en passant par l’invention de la poudre et jusqu’à l’arme nucléaire. «La loi du progrès de la performance des armements […] a toujours été de chercher à permettre à moins d'hommes de combattre aussi bien de plus loin, ou mieux, de plus près. À la limite: à aucun homme de combattre parfaitement de loin»[16].

D’autant que le pouvoir politique, confronté à son opinion publique, est amené naturellement à l’utilisation de moyens toujours plus autonomes pour éviter la mise en danger de ses propres soldats. Faut-il rappeler l’usage exponentiel que fait l’administration Obama des drones et leur utilisation en dehors des règles du droit international[17]? Ainsi, les États occidentaux contraints par le concept de zéro mort et obligés de préserver le soldat entraîné dont le coût (humain et d’entraînement) va croissant, sont enclins à l’usage des SALA.

 

  • Surtout, ces machines autonomes posent la double question du respect des règles éthiques et de la responsabilité. Ainsi, l’usage croissant des SALA comporte en filigrane la question de l’abaissement du seuil de tolérance à la violence. Comme le souligne Jürgen Altmann, scientifique spécialiste du droit des conflits armés à l’université de Dortmund, les possibilités liées à l’emploi des SALA doivent faire craindre un usage toujours plus important de ce type d’armes[18]. En effet, le décideur politique, dégagé de tout risque porté par l’engagement de troupes au sol, serait à même de lancer des campagnes militaires pour des raisons qui, en d’autres circonstances, auraient fait l’objet de négociations. Ce fut également un point essentiel des discussions menées par l’ONU en avril 2015 dans le cadre de la convention sur certaines armes classiques (CCAC).

 

le reconnaître peut représenter une chance pour la France ou faire peser un risque de déclassement stratégique

 

La vitesse de développement des technologies implique de rapides prises de décisions sur le plan national et international.

  • D’abord, il est nécessaire de faire du développement de la machine autonome un projet majeur, car tout retard validerait de facto la rupture capacitaire. Pour cela, la France dispose de ressources suffisantes. Les travaux de réflexion préalable avaient été lancés par l’État et le plan France robot initiative de 2013 (ministère du Redressement productif et de l’Enseignement supérieur), qui traçait les orientations stratégiques à suivre pour faire du pays un acteur de premier plan dans ces domaines. Il s’agit, maintenant, de mettre en application les initiatives avancées. Tout d’abord, si la robotique civile connaît des succès, il semble nécessaire de créer un pôle de compétitivité qui regroupe une industrie de la robotique militaire qui est actuellement éclatée en de nombreuses PME (TECDRON, ECA ROBOTICS pour les plus innovantes). Ce regroupement permettrait d’orienter la recherche en fonction des besoins identifiés, d’avoir une meilleure synergie entre les entreprises et un financement des travaux par des fonds publics. Ensuite, le même effort doit être réalisé pour faire converger la recherche dans le domaine de l’IA, cette dernière pouvant s’appuyer sur de multiples laboratoires tels que l’INRIA, l’ESTA ou le LIP de Paris 6 pour avancer les recherches dans le machine learning[19] et le deep learning. Il s’agit de relancer, de nos jours, l’équivalent d’un plan calcul afin de maintenir l’indépendance stratégique de notre pays dans le domaine des machines autonomes. L’achat sur étagères, auprès des États-Unis, des drones Reaper est là pour rappeler les contraintes qu’un pays peut subir en ne disposant pas en interne d’une ressource militaire stratégique.
  • Dans le même temps, il s’agit aussi de réfléchir à une stratégie propre aux machines autonomes, en définissant en amont des doctrines d’emploi pour ne pas en subir l’arrivée. L’EMA pourrait ainsi se lancer dans une réflexion approfondie qui viserait à définir des concepts d’emploi pour les systèmes autonomes, ainsi que leur coordination avec le soldat. À l’instar de ce que préconise le chercheur Paul Scharre du Center for a New American Security, il peut être envisagé de créer un commandement unique dédié à la question des SALA et de l’IA[20].

 

  • Par ailleurs, avec l’arrivée des SALA et de l’IA, la communauté internationale doit mener une réflexion dans le but de cadrer l’usage des machines autonomes. Certes, des discussions sont en cours à Genève, mais la rapidité de développement de l’IA doit amener l’humanité à accélérer le processus. Ces discussions évoquent l’interdiction des armes autonomes, alors que la réalité montre que ce type d’armement est déjà utilisé par certains États. La France doit pouvoir jouer un rôle moteur en définissant, en lien avec ses partenaires, un ensemble de règles éthiques conformes au droit international humanitaire et que chaque fabricant devra respecter pour ses machines. Cette démarche serait une approche réaliste qui tiendrait compte aussi bien du développement inéluctable des SALA que du besoin d’exercer une forme de contrôle en amont.

La «robolution» est lancée; la symbiose entre les machines autonomes et l’IA porte en elle les germes de profonds changements dans la manière de faire la guerre car elle remet en cause la place centrale de l’homme dans la chaîne de décision. Certes, il est difficile de prévoir quel laps de temps nous sépare de l’utilisation généralisé des SALA sur un champ de bataille, mais cela doit être envisagé. La France avait pris du retard dans l’utilisation de la robotique industrielle, il est encore temps pour le pays de s’engager dans la voie de la robotique militaire et de l’IA.

 

 

 

Officier EMIA de l’arme des transmissions (promotion Capitaine Biancamaria, 2001-2003), le Commandant WILD a effectué son temps de lieutenant comme chef d’équipe au 13ème régiment de dragons parachutistes à Dieuze. De 2009 à 2011, il commande la compagnie d’état-major (CCT) de la brigade franco-allemande. Il effectue actuellement une scolarité du diplôme technique en intelligence économique à l’École européenne d’intelligence économique (EEIE) à Versailles.

 

Bibliographie:

 

  • Ronan Doare, Didier Danet et Gérard de Boisboissel (Dir.), «Drones et killer robots. Faut-il les interdire?», Presses universitaires de Rennes, 2015
  • Académie des technologies: «réflexions sur la robotique militaire», avril 2015
  • McCarthy, J. 1963a «A basis for a mathematical theory of computation». Computer Programming and formal systems. North-Holland.

 

 

 

[1] DoD: Department of Defense, ministère de la défense US.

[2] Utilisation des machines autonomes russes Plateform M lors d’exercices interarmées.

[3]«Work outlines key steps in third offset tech development», Defense News 14 décembre 2015

[4] Les cinq piliers sont: Machine learning, collaboration humain machine, automatisation de l’assistance à l’humain, collaboration avancée entre humain et machine, armes autonomes.

[5] https://www.youtube.com/watch?v=M8YjvHYbZ9w

[6] DARPA: Defense Advanced Research Projects Agency, est une agence du département de la défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire.

[7] WinterGreen Research Inc, Military ground Robot Plateform Systems to engage Terrorists: Market shares, strategies and forecast, Worldwide 2015 to 2021, 2015

[8] La loi de Moore a été exprimée en 1965 par Gordon E. Moore, ingénieur et un des fondateurs d’Intel. Il a constaté que la «capacité de calcul des semi-conducteurs proposés en entrée de gamme» doublant tous les ans à coût constant depuis 1959, il prévoyait la poursuite de cette croissance. Cette augmentation exponentielle fut rapidement nommée «loi de Moore».

[9] Singularité: moment ou l’intelligence artificielle prendrait conscience de son état et échapperait au contrôle de l’Homme.

[10] MIT: Massachusetts Institute of Technology

[11] Siri est une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs et répond à leurs requêtes.

[12] «Work outlines key steps in third offset tech development», Defense News 14 décembre 2015

[13] Ronan Doare, Didier Danet et Gérard de Boisboissel (Dir.), «Drones et killer robots. Faut-il les interdire?», Presses universitaires de Rennes, 2015.

[14] USAF, AUTONOMOUS HORIZONS Human autonomy teaming, AF/ST TR 15-01, 2015

[15] Ronald Arkin, «Governing lethal behaviour in autonomous robots», CRC press, 2009

[16] Alain JOXE, «Voyage aux sources de la guerre», PUF, collection Pratiques Théoriques, 1991.

[17] Andrew COCKBURN, «Kill chain the rise of hi-tech assassins», HH and co, 2015

[18] Heinrich Böll stiftung, «Hi-tech Kriege : Frieden und Sicherheit in Zeiten von Drohnen Kampfrobotern und digitaler Kriegsführung», HBS, 2014

[19]Ces laboratoires français semblent obtenir les succès les plus probants dans le domaine du machine learning: Reconnaissance sémantique, apprentissage des connaissances et big data.

[20] Paul Scharre, «Robotic on the battlefield part II: the coming swarm», CNAS, 2015

Séparateur
Titre : Les machines autonomes, vers la fin de la guerre comme entreprise humaine?
Auteur(s) : Commandant WILD
Séparateur


Armée