Les contenus multilingues proposés sur le site sont issus d'une traduction automatique.
 

 
 
 
 
 
Français
English
Français
English
 
 
 
Afficher
 
 
 
 
 
Afficher
 
 

Autres sources

 
Saut de ligne
Saut de ligne

Quelle éthique des nouvelles technologies dans la guerre ?

cahier de la pensée mili-Terre
Sciences & technologies
Saut de ligne
Saut de ligne

Alors que la recherche ne cesse de progresser dans les nouvelles technologies, il est urgent d’accroître la réflexion sur les conséquences éthiques de leur emploi dans la guerre. En effet, l’homme disparaît peu à peu de l’espace de bataille comme de la boucle décisionnelle, tandis que les difficultés liées à la discrimination et aux dommages collatéraux retrouvent toute leur acuité.

Une implication plus grande de l’État dans la recherche et la mise en place de doctrines d’emploi adaptées en corrélation avec les industriels devraient permettre de faciliter l’appréhension éthique des nouveaux équipements. En tout état de cause, le soldat doit rester au cœur du conflit et maître de l’application des feux.


L’application au monde militaire des nouvelles technologies telles que les nanotechnologies ou la robotique véhiculent leur lot de fantasmes, à l’image du super-soldat ou encore de la guerre virtuelle. Toutefois, beaucoup de ces fantasmes médiatisés jusqu’à maintenant par des films de science-fiction de qualité diverse sont en passe de devenir réalité.

Alors que la recherche, mue autant par le besoin d’en savoir que celui d’être rentable, ne cesse de progresser, il est urgent aujourd’hui d’accélérer la réflexion sur l’impact éthique qu’auraient ces technologies employées dans la guerre.

La recherche ne peut plus s’affranchir de toute responsabilité, et les futures doctrines d’emploi doivent par ailleurs être réfléchies au plus tôt en liaison avec les industriels. Le soldat doit en tout état de cause rester l'élément central de la guerre au risque, sinon, de porter le danger sur la nation qu'il est censé protéger.

 

Qu’est-ce que l’éthique dans la guerre aujourd’hui, et de quelles technologies parle-t-on?

 

«[La] spécificité [du soldat] réside dans le fait de se trouver détenteur, au nom de la nation dont il tient sa légitimité, de la responsabilité […] d’infliger la destruction et la mort, au risque de sa vie, dans le respect des lois de la République, du droit international et des usages de la guerre,[…]».[1]

 

Le droit international et les usages de la guerre sont ainsi les fondements de l’éthique. Aux us et coutumes de la guerre, ont succédé le jus ad bellum (droit de faire la guerre) et le jus in bello (droit dans la guerre). Formalisés ensuite sous la forme de multiples conventions, ces règles et principes ont permis de définir un cadre légal pour limiter la violence des conflits entre États. Un troisième ensemble normatif, le jus post bellum, tente de réguler le comportement des vainqueurs à l'issue du conflit et faciliter la reconstruction des nations. La définition de notions comme les crimes de guerre a en parallèle permis de modérer le comportement des acteurs en faisant tomber le sentiment d'impunité. Cette éthique légale est néanmoins de moins en moins adaptée à des conflits contemporains ne remplissant plus les critères de guerre entre autorités étatiques légitimes. Par ailleurs, la distinction claire entre combattants et non combattants perd de sa pertinence lorsqu'un des acteurs n'est pas une armée régulière, les civils n’étant par ailleurs plus toujours de simples spectateurs.

 

Par conséquent, ces textes doivent impérativement être complétés par des principes déontologiques. «Maître de sa force, il respecte l’adversaire et veille à épargner les populations»[2]. Ceux du soldat s’expriment ainsi par la notion de force maîtrisée, employée à un niveau rigoureusement suffisant et proportionnel aux effets à obtenir. Le soldat doit ainsi toujours être capable de distinguer l’intérêt de l’État qu’il sert et la préservation de l’humanité, la seconde devant in fine être prioritaire. La discrimination permanente entre civils et combattants doit être une de ses premières responsabilités, la population étant utilisée par tous lors des conflits asymétriques, que ce soit pour renseigner, agir, se dissimuler ou à des fins de propagande.

 

Quand on parle de nouvelles technologies dans le domaine Défense, les drones et plus généralement la robotique sont le premier domaine venant à l'esprit. Il s'agit souvent de remplacer le soldat pour faire aussi bien, voire mieux, tout en protégeant la vie humaine. L'autonomie décisionnelle sera d’ailleurs vraisemblablement acquise dans moins d'un quart de siècle grâce à des progrès continus en intelligence artificielle. Viennent ensuite les modes d’action offensifs potentiels dans le cyberespace[3] et le domaine spatial, telle la capacité de destruction de satellite avant le retour probable de programme d'armements espace-terre. Enfin, la nanotechnologie[4] offre à l'échelle d'un demi-siècle de formidables possibilités militaires, limitées pour l'instant à l'amélioration de l'existant. On parle beaucoup de protection accrue du combattant ou de renforcement des capacités physiques et mentales, en attendant de mieux percevoir les nouveautés[5] que permettra la maîtrise de l'infiniment petit.

 

Les nouvelles technologies soulèvent de réelles questions éthiques et morales

 

La dualité civilo-militaire de ces nouvelles technologies rend leur rapport à l’éthique très complexe. Peut-on encore espérer épargner les non-combattants alors que certains champs d’action comme Internet ou l’espace sont aussi fondamentaux pour l'économie civile que pour faire la guerre? À moins de limiter les actions aux rares infrastructures qui seraient à usage exclusivement militaire, les dommages collatéraux seront quasi-systématiques. Considérant que la neutralisation d'un équipement majeur d'Internet peut provoquer des milliards d’euros de perte, la comparaison des effets potentiels d'une attaque dans le cybermonde avec ceux, électromagnétiques, d'une bombe nucléaire n'est pas inopportune, avec toutefois une très grande différence: l'anonymat de l’attaquant et, de facto, son impunité.

 

En raison d’une incapacité à déceler le véritable responsable de l’action, l’anonymat offert par les nouvelles technologies est vraisemblablement l’évolution fondamentale des années à venir. Hormis des technologies ultra-pointues comme les nanotechnologies, les États pourront aisément faire porter la responsabilité, voire déléguer leurs actions, à des prestataires privés. Il est évident que les États qui seront incapables de réagir dans le même champ d’action que leur adversaire auront toutes les peines à justifier des représailles via des opérations militaires classiques, paralysant leur liberté d’action.

 

Outre la mise à mal de ces principes éthiques légaux, la pertinence morale de l’emploi de certains outils se pose de manière accrue avec l’éloignement progressif de l’homme de l’espace des opérations. À l'image de l'opérateur de drone qui opère en dehors du théâtre des opérations, un soldat peut aujourd'hui donner la mort sans risquer directement sa vie. Le problème éthique de délivrer la mort sans proximité est un débat qui va donc encore s’amplifier avec ces améliorations technologiques, risquer sa vie participant pleinement de la justification morale de donner la mort.

 

À l’inverse, il ne faut pas oublier que l’efficacité de la neutralisation d’un armement réside autant dans sa destruction matérielle que dans les pertes humaines associées. Ces opérateurs à distance, pour les drones aujourd’hui et les robots demain, finiront inévitablement par être ciblés à la place des vecteurs trop facilement remplaçables, et ce au sein même du territoire national si nécessaire. Est-ce éthique de prendre le risque d’attirer la violence au sein de sa propre population sous couvert de protéger le soldat? Parlera-t-on encore de terrorisme?

 

Enfin, la concurrence de l’intelligence artificielle et les capacités offertes par la nanotechnologie impacteront inévitablement le soldat. La robotique induit une double question éthique[6], intimement liée au caractère humain du soldat. Quelle sera la capacité d’une intelligence artificielle à adapter les règles d’engagement à la réalité complexe de la guerre? Peut-on accepter le retrait d’une vie humaine par une volonté artificielle, et donc en corollaire, quelle place pour l’homme dans la décision de feu? Au vu des situations hors cadre normé courantes lors des conflits, il est difficile d’imaginer la répartition des responsabilités entre industriels et chefs militaires en cas de mauvaise décision prise par une intelligence artificielle.

 

De plus, le soldat amélioré demain par les nanotechnologies (et peut-être par la génétique après-demain) sera sans aucun doute la continuité logique de la mise en œuvre de ces mêmes techniques pour soigner l’homme aujourd’hui. La mise en place d’implants directement dans les muscles voire le cerveau permet de visualiser plus facilement toutes les dérives possibles, et la difficulté de dessiner les limites de l’acceptable dans le domaine. Quelle liberté de choix du soldat face à l’utilisation d’implants quand un refus mettra directement sa vie en péril dans un environnement artificiellement augmenté?

 

Des solutions sont possibles, sous réserve d’une description a minima nationale des limites

 

Première étape de l’apparition de ces technologies, la recherche ne répond plus à un besoin mais le détermine. Même si le débat philosophique de la responsabilité éthique du chercheur est éternel, la question de son encadrement se pose avec plus d’acuité. Ayant longtemps argué de la loi de Gabor[7] pour refuser tout interdit, le chercheur ne peut plus se contenter d’opposer la neutralité de la technique qu’il étudie et l’éthique des applications qui en découlent. Il n’est pas pour autant souhaitable de se réfugier systématiquement derrière le principe de précaution pour interdire toute recherche. Concernant les applications militaires, le ministère de la Défense et donc, par extension, l’État, devrait redéfinir et accroître son rôle dans la phase de R&T[8], aujourd’hui largement négligée et abandonnée aux industriels. C’est pourtant à ce niveau de réflexion sur les risques que l’aspect éthique doit être abordé, afin de permettre la mise en place de limites sur les produits développés. Ce rôle nécessitera certainement d’en assumer parfois le coût pour éviter les dérives liées à une nécessité de rentabilité pour l’industriel.

 

Une doctrine d’emploi adaptée devrait permettre en complément de compenser les difficultés éthiques posées. Pour revenir sur la comparaison avec l’arme nucléaire, l’éthique liée à la dissuasion est indissociable de sa doctrine d’emploi… ou de non-emploi. Une même logique doit pouvoir s’appliquer aux armements ou moyens d’action liés aux nouvelles technologies, sous réserve d’être appliquée à grande échelle. Il est nécessaire d’entamer cette réflexion très en amont, pour pouvoir bien plus tôt qu’aujourd’hui orienter l'industrie de défense avant les phases de développements de produits.

Il faut ainsi éviter de laisser les industriels concevoir des systèmes d'une complexité telle que l'homme ne pourrait plus intervenir dans la boucle décisionnelle. Cela reviendrait à imposer de facto son exclusion, et donc à forcer la mise en place d'une nouvelle éthique de la guerre: automatiser la décision de tuer.

 

Enfin, le soldat doit rester l'élément central de la guerre, quel qu’en soit le coût humain. La guerre restant d'abord et avant tout un choc des volontés au service d'une finalité politique, il serait utopique de croire qu'elle sera gagnée de manière indolore par les États qui sauront remplacer l'homme par la technologie sur le champ de bataille. Seule la mort ou la souffrance infligée peuvent faire plier la volonté politique. Une guerre exclusivement menée par des robots n'aurait pas de sens car pas de fin, sauf asphyxie économique d'un des deux belligérants. En l'absence de soldats et d'objectifs militaires à forte valeur ajoutée sur les zones d'opérations, ce sont donc le territoire national, sa population et ses infrastructures vitales qui deviendront la cible permettant à l'adversaire, asymétrique ou pas, d’ailleurs, d'affecter d'abord l’efficacité des armements puis, in fine, de faire plier le pouvoir politique. C'est pourtant toute la finalité du soldat professionnel, volontaire et entraîné pour survivre, de prendre des décisions dans des situations hors-normes et d'offrir si nécessaire sa vie à la place du citoyen afin de préserver la liberté d’action politique.

 

 

La supériorité tactique potentiellement apportée par les nouvelles technologies ne doit pas occulter les problèmes éthiques inhérents à leur emploi en situation de guerre, tout comme les nouvelles faiblesses stratégiques induites pour les États qui seraient incapables de lutter dans les mêmes dimensions. La déshumanisation du champ de bataille et l’anonymat de l’agresseur déplaceront sans doute la violence vers des objectifs à plus forte valeur stratégique, au détriment principalement de la sécurité du territoire national.

Une implication plus grande de l’État dans la recherche et la mise en place de doctrines d’emploi adaptées en corrélation avec les industriels devraient permettre de faciliter l’appréhension éthique des nouveaux équipements.

En tout état de cause, le soldat doit rester au cœur du conflit et maître de l’application des feux, soutenu par son éthique et sa force morale qui lui permettront de prendre la meilleure décision, au péril de sa propre vie si nécessaire. La perte d’efficacité tactique sera ainsi compensée par la préservation de la légitimité morale et donc politique de l’action militaire.

 

 

[1] «L’exercice du métier des armes dans l’armée de Terre», État-major de l’armée de Terre, janvier 1999.

[2] Code du soldat, armée de Terre.

[3] Cyberespace: «espace virtuel rassemblant la communauté des internautes et les ressources d'information numériques accessibles à travers les réseaux d'ordinateurs». (Larousse). Il faut se garder de limiter ce monde à internet et prendre conscience de sa constitution en trois ensembles, chacun porteur de vulnérabilités: l'infrastructure, les applications et l'information elle-même.

[4] Nanotechnologie: «domaine de la science dont la vocation est l'étude et la fabrication de structures dont les dimensions sont comprises entre un et mille nanomètres». (Larousse). Pour comparaison, la taille moyenne d'un cheveu est de 100.000 nanomètres.

[5] Un rapport de l’OTAN, Les implications des nanotechnologies pour la sécurité, sorti en 2005, aborde par exemple leur application à la guerre bactériologique et chimique.

[6] Human Rights Watch a édité une publication très complète sur le sujet en novembre 2012: Losing humanity, the case against Killer robots.

[7] Loi de Gabor: «tout ce qui est possible sera fait, toujours». Selon cette loi, rien ne pourra empêcher un chercheur de tenter quelque part l’expérience la plus dangereuse ou invraisemblable. Il serait donc inutile de réglementer la recherche.

[8] R&T: recherche et technologie; la R&T se situe entre la recherche fondamentale (CNRS, universités) où l’État, via ses financements, est très présent, et le développement de produits (R&D) piloté par les industriels. Elle consiste à valider les technologies les plus prometteuses, à étudier et lever les risques induits par leur emploi, et se concrétise souvent par des démonstrateurs technologiques.

 

 

Séparateur
Titre : Quelle éthique des nouvelles technologies dans la guerre ?
Auteur(s) : le Chef de bataillon Xavier DUBREUIL
Séparateur


Armée