Les contenus multilingues proposés sur le site sont issus d'une traduction automatique.
 

 
 
 
 
 
Français
English
Français
English
 
 
 
Afficher
 
 
 
 
 
Afficher
 
 

Autres sources

 
Saut de ligne
Saut de ligne

IFKHA MISTABRA ou la doctrine de la contradiction

Libres réflexions à propos du C2
Engagement opérationnel
Saut de ligne
Saut de ligne

Le 6 octobre 1973, une coalition emmenée par l’Egypte et la Syrie attaqua par surprise des territoires occupés par Israël lors de ce qui sera appelé la guerre du Kippour. Les Egyptiens en particulier intoxiquèrent les services de renseignement militaires israéliens en profitant d’un de leurs exercices à proximité de la frontière pour mettre en place leur attaque. Les Israéliens négligèrent tous les indices indiquant l’imminence d’une attaque, ce qui conduisit le pays très près d’une défaite totale avant de retourner la situation. Cet échec, ainsi que des erreurs de gestion ultérieures, coûta sa place à la première ministre israélienne Golda Meir.


Les services de renseignement militaires israéliens avaient été victimes d’un biais cognitif[1] bien connu, le biais de confirmation. Lorsque celuici est à l’œuvre, seules les informations qui confirment les postulats de départs et la thèse dominante sont retenues. Les éléments divergents sont au mieux considérés comme négligeables, au pire comme faux, résultats d’erreurs ou d’individualités douteuses.

Le royaume des biais heuristiques

Toutes les organisations sont victimes de biais cognitifs à plus ou moins haut niveau. Les armées n’y font pas exception, si ce n’est que les conséquences se paient parfois avec le prix du sang voire de la disparition d’une nation. Le lieu du développement des biais cognitifs se situe principalement dans les procédures de fonctionnement de l’organisation, ce que les armées appellent la doctrine.

La doctrine relève de différents niveaux, dont certains permettent de relever les biais cognitifs particuliers qui s’y expriment, et surtout leurs conséquences parfois dramatiques.

Dans le haut du spectre, nous trouvons tout d’abord ce que l’on pourrait appeler la doctrine générale, s’exprimant dans les documents fondateurs d’une armée à un moment donné et qui est souvent le résultat d’une évolution culturelle et historique bien plus que celui d’une évolution technique. Ainsi le culte de l’offensive d’avant la guerre de 1914 (traduit par la phrase pourtant antérieure de presque deux siècles : « la balle est folle, seule la baïonnette est sage »[2]) accouche en 1940 d’une prééminence de la défensive sur l’offensive. Le traumatisme de la guerre de tranchées impacte fortement les réflexions doctrinales de l’entre-deux-guerres, entraînant un désintérêt certain pour les capacités et les manœuvres offensives. Cette capacité à abandonner volontairement un pan complet de ses propres connaissances porte le nom d’agnotologie[3]. Cette idée se comprend si l’on considère que l’interprétation de l’histoire et de l’opinion publique ont un impact lourd sur le fonctionnement des armées, celles-ci étant dans le domaine de la res publica, contrairement à une entreprise privée. Dans la même logique on peut citer l’abandon complet par les Américains entre la guerre du Vietnam et la première guerre d’Irak de toute réflexion sur la contre-insurrection[4]. Plus proche de nous, les opérations psychologiques ont été abandonnées dans l’armée française à la fin de la guerre d’Algérie.

Dans le domaine du renseignement, les biais cognitifs s’expriment aussi dans la façon de considérer son ennemi. Plusieurs erreurs existent dans cette approche, la plus connue étant certainement le biais de projection. Cette approche consiste à projeter ses intentions et sa manière de combattre sur son ennemi pour en faire un double de soi, considérant alors sa capacité d’initiative et de réflexion comme nulle. C’est ainsi que lors de la deuxième guerre mondiale, les Allemands recouvrirent leurs principaux chars de zimmerit[5]. Cette matière visait à isoler le blindage des chars pour éviter le déclenchement des mines magnétiques.

En réalité, cette innovation fut inutile car seuls les Allemands utilisaient en masse des mines magnétiques, contrairement aux alliés. Les Allemands avaient « projeté » leur doctrine sur leurs ennemis.

Ce biais de projection s’applique aussi dans la façon d’utiliser les matériels aux combats. Si le champ de bataille a toujours été le lieu d’expression du système « D », les armements conventionnels sont aussi parfois détournés de leurs usages classiques occasionnant de véritables surprises au combat. En Somalie en 1993, les miliciens de Mohamed Farrah AIDID utilisèrent des lance-roquettes anti-char pour abattre les hélicoptères américains[6] qui considéraient la menace sol-air comme négligeable. De même, en 2015 un groupe affilié à Daech tira depuis la côte du Sinaï sur un patrouilleur égyptien avec un missile anti-char détourné de son emploi « normal ». C’est ce qu’une des fameuses lois de Murphy illustre par : « les professionnels sont prévisibles mais le monde est rempli de dangereux amateurs ».

Parfois la simple pression hiérarchique est suffisante pour créer un climat favorable à la mise en place d’œillères intellectuelles. Ce que l’on appelle biais de conformité, et qui consiste à adopter la pensée dominante de son organisation, est d’autant plus puissant que la chaîne hiérarchique a tendance à écarter les individus non alignés. Le général américain DEMPSEY déclarait que le jour où il reçut sa quatrième étoile, un de ses camarades lui fit prendre conscience que plus personne n’oserait lui dire la vérité. C’est aussi l’idée que le maréchal LYAUTEY exprimait en voyant les cerveaux se fermer lorsque les talons claquaient[7].

Sans être caricatural, et s’il est important d’être conscient des biais cognitifs évoqués, il faut aussi raisonnablement reconnaître que la doctrine d’une armée est nécessaire à son efficacité. Quelle organisation pourrait remettre en question ses règles de fonctionnement chaque matin et espérer avoir une vision de long terme ? Sans doctrine, sans capacité à travailler ensemble, point de combat interarmes ou interarmées. Pas non plus de confiance en ses subordonnées et donc de subsidiarité qui donne son efficacité à l’adaptation au combat. Tous les biais induits par l’application d’une doctrine visent à rendre intelligible une situation caractérisée par une infinité de données à prendre en compte la guerre. C’est pour cette raison que l’on peut parler de royaume des biais heuristiques.

Systématiser la contradiction : le redteaming et les jouets défectueux

La doctrine est donc nécessaire au fonctionnement des armées mais induit de ce fait des biais cognitifs. Il convient de se défaire de ces biais ou au moins de les identifier en développant le recours à une systématisation de la critique constructive.

Dans ce but, l’armée américaine a créé le concept de red team destiné à développer cette capacité à critiquer les biais cognitifs à l’œuvre dans les travaux d’état-major. Si le terme red team n’est apparu que pendant la guerre froide, cette idée de critique constructive systématique est en réalité beaucoup plus vieille.

Après l’échec des services de renseignement israéliens évoqué en introduction, ces derniers créèrent une nouvelle cellule appelée Mahleket Bahara (le département de contrôle, en hébreu) rapidement surnommée Ifkha Mistabra. Cette expression signifiant littéralement « l’inverse est vrai » est issue de la tradition talmudique, et plus particulièrement des tribunaux rabbiniques, les Beth Din. Dans ce cadre, si au cours d’un procès les dix juges étaient d’accord sur le verdict et qu’aucun d’entre eux ne pouvaient présenter une preuve contredisant ce jugement, le tribunal était dissout sans qu’une sentence soit prononcée. On estimait en effet que si aucun juge n’était en mesure de contredire la décision prise, le travail du tribunal était biaisé et donc inefficace. C’est la raison pour laquelle on parle parfois de règle du dixième homme.

De la même manière au treizième siècle, l’Église catholique créa la fonction de promoteur de la foi, aussi appelé avocat du diable. L’individu chargé de cette fonction intervenait à charge dans les procès de canonisation et visait à empêcher toute erreur de choix des futurs saints en remettant en cause systématiquement les miracles du potentiel canonisé.

Reprenant cette idée de réduire les biais cognitifs lors des processus de décision, l’armée américaine créa pendant la guerre froide une cellule de red team destinée à questionner le bien fondé des hypothèses attribuées à l’ennemi, représentées en rouge dans les états-majors d’où le nom de cette cellule. Toutefois, ce n’est qu’au début des années 2000 que les forces armées américaines standardisent l’organisation, les buts et le fonctionnement des red team en créant un organisme de formation dédié à cette problématique, appelé University of foreign military and cultural studies (UFMCS).

En raison de l’origine des red teams, elles sont souvent confondues, encore de nos jours, avec des cellules d’analyses poussées de l’ennemi, sorte de « super » bureau renseignement, ce qui n’est pas le cas même si une red team peut contribuer à l’analyse de l’ennemi. De même la red team n’est pas la cellule du mauvais esprit ou du défouloir, telle que peut la concevoir l’imaginaire collectif.

La définition d’une red team par l’UFMCS est la suivante : « un groupe composé d’individus expérimentés, entrainés et formés, fournissant une capacité indépendante de mener une analyse critique à partir d’un point de vue alternatif ». Il s’agit donc de questionner le bien fondé d’un processus décisionnel, ou de son résultat, par une critique constructive partant de présupposés différents, le but étant bien de détecter et de supprimer les conséquences induites par les biais cognitifs générés par l’état-major de manière inconsciente.

Les red teams disposent de trois approches pour mener à bien leurs missions. La première, qui est la plus connue, est la simulation. Elle consiste en une confrontation des comportements des forces alliées et des forces ennemies dans un wargaming151, confrontation qui trouve son aboutissement de nos jours dans les CAX, les computer assisted exercices, les simulations appuyées par l’outil informatique.

Les coups de sondes constituent le deuxième outil des red teams. Un coup de sonde est une attaque grandeur nature menée par une équipe opposante qui vise à mettre en lumière les vulnérabilités et les failles d’une unité. L’exemple le plus classique est celui d’un groupe de pirates informatiques testant légalement les réseaux informatiques d’une entité particulière. Par extension, l’entraînement en terrain libre face à une force adverse réelle (la FORAD), s’apparente aussi au concept de coup de sonde.

Le dernier outil, le plus difficile à mettre en place, est celui de l’analyse alternative. Le but est de mener une réflexion parallèle au processus décisionnel classique en adoptant un point de vue différent voir opposé. Cette réflexion vise à neutraliser les rigidités conceptuelles en résistant à la pression du groupe, raison pour laquelle la red team doit fonctionner en étant extérieur au groupe qu’elle appuie. Le travail de la red team peut mettre en lumière les biais de la décision prise par le groupe, mais aussi confirmer celle-ci en déterminant que les solutions alternatives ne sont pas viables.

108 Un jeu de guerre, le fameux kriegsspiel inventé par Von REISWITZ au dix-neuvième siècle .

Ainsi, en 2007, les services de renseignement israéliens transmettent aux États-Unis les photos de ce qu’ils considèrent comme un réacteur nucléaire d’origine nord-coréenne en Syrie dans la localité d’Al Kibar. Israël demande l’appui américain pour bombarder ce site considéré à vocation militaire. La CIA (Central Intelligence Agency) qui découvre l’existence de ce site met en place une red team pour estimer la validité de cette information. Ce groupe doit déterminer la nature du site en partant du postulat qu’il ne s’agit pas d’un réacteur nucléaire. Au final cette red team, malgré son travail, n’a pu fournir une alternative viable à l’idée qu’il s’agissait d’un réacteur nucléaire, confirmant par là même le renseignement israélien. Toutefois l’US airforce ne bombarda pas le site, car la red team avait pu mettre en avant le fait que rien ne corroborait l’usage militaire de ce réacteur, d’autant plus que les États-Unis étaient à l’époque échaudés par leur intervention en Irak.

Si l’utilisation d’une red team permet l’amélioration des décisions prises au sein des états-majors, sa mise en place n’est pas toujours aisée. Outre l’appui du chef pour faciliter voire imposer l’existence de cette cellule, son fonctionnement requiert un personnel particulier. En effet, ce personnel doit être imperméable à l’ambiance de l’état-major dans lequel il travaille et aussi disposer d’une capacité à raisonner hors des conventions. Un instructeur de la USFMCS déclara que les membres des red teams devaient être autistes au fonctionnement de l’état-major dans lequel ils servaient, allant jusqu’à parler de misfit toys, des jouets défectueux. Ces individus, hors des cadres, sont en général mal vus de la hiérarchie, en particulier en temps de paix.

La création d’une red team pose aussi des problèmes plus terre à terre. En rajoutant une étape au processus de planification, la red team demande des délais supplémentaires alors que la vitesse de planification reste une des clés du succès. De même dans des états-majors alourdis par la gestion des flux d’informations, une red team représente encore des effectifs supplémentaires.

Au final, il reste compliqué de déterminer exactement quand et où mettre en place une red team. Outre les exemples israélien (pour l’aspect renseignement) et américain (pour le fonctionnement des états-majors) déjà cités, nous pouvons aussi évoquer le cas britannique. Mise en place au DCDC (le development, concepts and doctrine center, le groupe de réflexion du ministère de la défense britannique), la red team britannique a déterminé les prérequis à son emploi et à son efficacité. Tout d’abord, la red team doit pouvoir accéder au chef de plus haut niveau au sein de l’unité. L’objectif de son emploi est d’améliorer la qualité de la décision prise et non de la valider. Enfin le recours à la red team doit se faire en amont en non en aval, car sa simple utilisation n’est pas suffisante pour rendre caduque une décision déjà prise.

Sans respecter ces éléments, il est aisé de neutraliser l’intérêt d’une red team. Ces trois erreurs, se sont retrouvées telles quelles lors de l’exercice militaire américain de grande ampleur Millenium challenge en 2002. Cet exercice visait à valider la nouvelle doctrine des forces armées américaines issue de la révolution dans les affaires militaires, ainsi qu’étudier une possible invasion de l’Irak. La red team, qui jouait aussi le rôle de l’ennemi (la red cell) dans le jeu de guerre simulée, coula la moitié de la flotte américaine, dont son porte-avion, en quelques minutes seulement. Après cet évènement, la cellule d’arbitrage du jeu de guerre (la white cell) donna l’ordre à la red cell de se restreindre uniquement au scénario prévu, et alla jusqu’à brider ses capacités offensives pour assurer la victoire à la force d’invasion américaine. La red cell, n’avait ainsi plus accès à la cellule d’arbitrage qui dirigeait aussi l’exercice, et l’objectif de l’exercice était clairement de valider la nouvelle doctrine et non de l’amender.

Et l’armée française ? Le concept de red team n’y est pas encore très développé. Outre la méconnaissance de son rôle déjà évoquée précédemment, il y a aussi la croyance dans le fait que « l’esprit grognard français[8] » palliera à l’aveuglement collectif de l’état-major. Il est d’ailleurs intéressant de constater qu’il existerait un biais cognitif (le français aurait un esprit critique plus développé) pour corriger d’autres biais cognitifs.

Le redteaming interne : une pensée quantique ?

Les biais cognitifs ne sont pas l’apanage des groupes. Le dogmatisme forcené qui est souvent à la racine de ces biais s’expriment aussi chez l’individu avant de se diffuser au groupe (en particulier si l’individu est le chef ou doté d’un fort charisme). Il y a donc un intérêt à développer une sorte de red team interne, ce que le chef de bataillon DUBOIS appelle un « doute pragmatique » qui vise « la confrontation au réel »[9].

Dans ce cadre, on constate paradoxalement que le but d’une red team est à la fois une manière de réduire l’incertitude liée à la prise de décision et d’accepter cette même incertitude comme élément non réductible. Mais développer cette capacité à titre personnelle est un travail de longue haleine. D’ailleurs, cette capacité à décider tout en étant capable de douter de manière pragmatique s’apparente quasiment à une pensée « quantique »[10]. Ce type de pensée qui permet de penser à la fois une chose et son contraire est sans nul doute une forme de red team interne. Cependant, et à l’image du chat de Schrödinger[11], à la fois mort et vivant, il est difficile de passer d’une pensée classique à une pensée quantique. Mais c’est sans doute une piste pour s’extraire des biais cognitifs les plus communs.

À l’heure où le recours à l’intelligence artificielle nous promet des outils d’aide à la décision dégagés des erreurs humaines en s’appuyant sur le big data, le concept de red team peut apparaître déjà obsolète. Toutefois, et outre le fait qu’une intelligence artificielle sera toujours tributaire des biais cognitifs de son créateur et des données nécessaires à son fonctionnement, l’aspect moral et politique de la guerre garantit la place de l’Homme comme décideur final pendant encore longtemps. L’humilité, le doute et les analyses alternatives ont encore de beaux jours devant eux à condition d’accepter ceux qui les expriment. Le général Petraeus considérait d’ailleurs que les forces armées devaient « créer une culture qui préserve et protège les iconoclastes ».

Bibliographie :

Micah ZENKO, Red team, how to succeed by thinking like the enemy, basic books, 2015 ;

University of foreign military and cultural studies, the applied critical thinking handbook, version 7.0, 2015 ;

Serge CAPLAIN, Penser son ennemi, modélisations de l’adversaire dans les forces armées, Études de l’IFRI, focus stratégiques, 2018 ;

Emmanuel DUBOIS, Le doute, vertu fondamentale du militaire, Cahier de la pensée mili-Terre, 2018 ;

Biais cognitifs, article Wikipédia, Wikipédia, https://fr.wikipedia.org/wiki/ Biais_cognitif, 2018.

_______________________________________________________

 

[1] « Un biais cognitif est une distorsion dans le traitement cognitif d’une information » .

Source WIKIPEDIA .

Revue de doctrine des forces terrestre

[2] Cette sentence nous vient du général russe Alexandre SOUVOROV (1730-1800) .

[3] L’agnotologie, terme inventé par l’historien des sciences Robert N . Proctor en 1992, se comprend comme l’étude de la production culturelle de l’ignorance .

[4] Un instructeur du U .S . Army’s Command and General Staff College (l’école d’état-major de l’Armée de Terre américaine) déclara à ses élèves qu’ils n’étaient pas là pour « faire la vaisselle, laver les fenêtres ou faire de la contre-insurrection » . 

[5] Du nom de la firme qui la produisait, la Chemische Werke Zimmer AG .

[6]  Les fameux black hawk, les faucons noirs qui donneront leurs noms à cet épisode .

[7] « Quand j’entends des talons qui claquent, je vois des cerveaux qui se ferment . »  Maréchal LYAUTEY .

[8] Serge CAPLAIN, Penser son ennemi, in Études de l’IFRI, focus stratégique .

[9] Emmanuel DUBOIS, Le doute, vertu fondamentale du militaire, in Cahier de la pensée mili-Terre .

[10]  Laurent HENNINGER, conférence à l’École de Guerre-Terre, septembre 2018 .

[11] Erwin SCHRÖDINGER est un des piliers de la physique quantique et imagina une expérience pour illustrer cette dernière : un chat est enfermé dans une boîte opaque avec un dispositif ayant une chance sur deux de le tuer . En physique classique, le chat peut être soit vivant soit mort, mais en physique quantique, et tant que l’on ne vérifie pas l’intérieur de la boîte, le chat est en même temps mort et vivant .

Séparateur
Titre : IFKHA MISTABRA ou la doctrine de la contradiction
Auteur(s) : Chef d’escadron Jean-Baptiste FARGEREL
Séparateur


Armée