Traitement en cours, merci de patienter...
Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne
Rechercher
 
Saut de ligne
Afficher
Saut de ligne
Saut de ligne
Autres sources
Image
Saut de ligne
Saut de ligne
Saut de ligne
Rechercher
 
Saut de ligne
Afficher
Saut de ligne
Saut de ligne
Autres sources
Saut de ligne
Saut de ligne
Saut de ligne

Sciences cognitives et organisation des postes de commandement

Cahiers de la pensée mili-Terre
Commandement
Saut de ligne
Saut de ligne

Les sciences cognitives sont souvent considérées comme un effet de mode, voire une affaire de quelques spécialistes. Elles ont pourtant déjà révolutionné nombre de domaines et sont en pleine expansion. L’armée de Terre, qui a su prendre le virage de la numérisation, pourrait, et saurait-elle, tirer profit de ce nouveau champ d’évolution? Si oui, quelles découvertes cognitives seraient susceptibles de peser demain sur les structures de commandement ? C’est à ces questions, et à beaucoup d’autres, que les auteurs de cet article tentent de répondre.
 


Introduction

 Dans Action terrestre future, document prospectif destiné à l’emploi optimum des forces dans l’avenir, l’armée de Terre identifie la «performance du commandement» comme un facteur fondamental de la supériorité opérationnelle. Celle-ci est ainsi caractérisée: «La performance du système de commandement doit assurer la direction optimisée des opérations par la prise en compte de quatre impératifs interdépendants […]: l’intelligence des situations, l’accélération des décisions, la plasticité des organisations et la réduction des vulnérabilités».

 

Les trois premiers impératifs font référence à des thèmes abordés par une discipline autrefois discrète, mais de plus en plus citée aujourd’hui: les sciences cognitives. Parce qu’elles ont l’attrait de la nouveauté, elles sont porteuses d’une attention, d’une attente, sinon d’un espoir, qui se révèlent dans la multiplication des références qui leur sont faites, en particulier dans le domaine de la défense[1]. Une étude prospective de l’ANR[2] affirme à cet égard que «la cognition [sera] au cœur des révolutions technologiques et sociétales».

 

Toutefois, comme tous les scientifiques, les cognitivistes ont élaboré un vocabulaire, des concepts et des écoles qui se complètent souvent, s’affrontent parfois mais qui, passées les doctes postures de ceux qui les citent, n’en disent pas toujours plus à qui les écoute. Reconnaître que ces recherches, à l’ère de l’hyper-information qui prévaut aujourd’hui, sont en vogue et riches de potentiel ne les rend pas moins hermétiques ou fantasmées. En effet, il existe aussi une friction sur le champ de bataille scientifique: au carrefour des sciences de la vie, des sciences humaines et sociales et des sciences logiques, les cognitivistes tentent parfois de découvrir une théorie du tout qui s’ancrerait dans l’objectivité des sciences exactes. Si la richesse (et la diversité, parfois conflictuelle) des théories cognitives est réelle, celles-ci ne sont pas directement transposables en réalités militaires. Un effort d’analyse critique, et sans fascination, est donc nécessaire pour exploiter cette richesse et en tirer des enseignements doctrinaux et stratégiques utiles.

 

Les postes de commandement (PC), animés d’une intention et nourris d’informations, sont ontologiquement cognitifs et peuvent être vus comme des systèmes de décision[3]. Dès lors, quelles découvertes cognitives seraient susceptibles de peser demain sur les structures de commandement? Les sciences cognitives ne resteront-elles qu’un effet de mode qu’il est permis de négliger, ou faut-il au contraire éviter le jugement péremptoire d’un Foch jugeant l’aviation avant 1914 et repenser impérativement les organisations des PC avant qu’une rupture n’intervienne, offrant à qui l’anticipera une supériorité incontestable?

 

Il est probable que, comme toutes les sciences, les sciences cognitives continueront de s’approcher de l’objectivité sans jamais y parvenir; elles n’apporteront sans doute pas la révolution qui débouchera sur une domination militaire par la seule réorganisation des systèmes de commandement. De fait, qui peut croire encore qu’il suffirait de quelques bonds technologiques pour annuler le brouillard de la guerre? En revanche, comme pour toutes les avancées scientifiques, il sera profitable de déterminer quelles améliorations significatives les découvertes cognitives apporteront à ce qui constitue, quelle que soit la submersion de l’information, la raison d’être du commandement militaire: transformer l’intention en action. 

 

Aussi, il sera proposé dans un premier temps une définition des sciences cognitives, de sorte qu’il soit possible d’en déduire les opportunités et les limites pour les systèmes de commandement et déboucher ainsi sur la proposition de quelques applications pour l’avenir.

 

Les sciences cognitives: de quoi s’agit-il?

 

Les sciences cognitives, ou sciences de la cognition, trouvent leur origine dans le «cogito» («je pense») rendu fameux par René Descartes. Elles sont éminemment liées à l’usage de la pensée, et leur étymologie s’enracine dans le substantif «cognitio» qui signifie en latin la «faculté de connaître». Aussi ont elles «pour objet de décrire, d’expliquer et, le cas échéant, de simuler les principales dispositions et capacités de l’esprit humain – langage, perception, coordination motrice, planification…»[4].

 

  • Origine des sciences cognitives

Expliquer et formaliser l’esprit a constitué une des ambitions originelles de la philosophie. Considérée comme propre à l’homme dès les présocratiques, la pensée est apparue comme la clé d’un usage conscient et sage de la liberté humaine. Dans le sillage de la Renaissance, les philosophes «rationalistes», emmenés par Descartes, Spinoza, Newton et Leibniz, ont jeté les bases scientifiques de l’ère moderne en interprétant la pensée comme un phénomène logique et décomposable. L’étymologie en répond: la «ratio» latine correspond à la faculté de compter, d’organiser et d’ordonner. Le «logos» grec renvoie à la parole, en particulier à sa nature explicative et démonstrative. Ces notions presque synonymes ont fait école, de Kant à Comte, nourrissant la volonté de dissocier la complexité en concepts plus élémentaires, clairs, distincts et assurés, qui se scindent à leur tour jusqu’à atteindre des idées simples, des «atomes» en somme. Selon cette approche, la raison consiste alors en la manière d’associer ces «atomes» selon des règles séquentielles, produisant ainsi la matière qu’est la pensée.

 

Au XIXème siècle, George Boole poursuivit cette mécanisation de la pensée en inventant le «calcul symbolique». Celui-ci s’efforce de traduire des opérations logiques (ou, et, si… alors…, etc.) en actions algébriques simples composées de 0 ou de 1. En 1936, Alan Turing, mathématicien britannique, inventa la célèbre machine éponyme, modèle abstrait de l’ordinateur, qui décompose tout problème mathématique calculable par l’homme en une suite d’opérations simples. John von Neumann, quant à lui, jeta les bases de la conception des ordinateurs modernes en différenciant le programme des données de calculs.

 

Parallèlement, des découvertes importantes en neurologie contribuèrent au progrès de la compréhension du cerveau. Alcméon de Crotone avait d’ailleurs posé les bases d’un consensus rarement remis en cause depuis l’Antiquité, identifiant le cerveau comme le siège de la raison: les avancées scientifiques modernes lui donnèrent, sans surprise, raison. Entre autres, Paul Broca localisa le centre du langage dans le lobe temporal gauche, et le neurone fut découvert par un chercheur espagnol, Santiago Ramón y Cajal. L’Allemand Korbinian Brodmann publia à son tour en 1909 la première cartographie du cerveau, toujours utilisée aujourd’hui.

 

L’après-guerre vit la naissance de la cybernétique. Sous l’impulsion du mathématicien N. Wiener et du neurophysiologiste W. McCulloch, des mathématiciens, des psychologues, des sociologues, des linguistes, mais aussi des anthropologistes participèrent à des sessions interdisciplinaires[5] pour dégager les principes qui régissent les systèmes, qu’ils fussent vivants ou non-vivants. Tout-à-fait dans l’esprit de Descartes qui «ne [connaissait] aucune différence entre les machines que font les artisans et les divers corps que la nature seule compose»[6], le but était alors non seulement de développer une analogie entre les machines et les organismes vivants[7], mais également de faire converger les échanges entre spécialistes de disciplines distinctes. Trois idées principales s’en dégagèrent: la possibilité d’associer le calcul et le signal électrique, la notion de système – qui traite des données et produit un effet –, et enfin le pilotage par rétroaction[8], qui permet de réguler les systèmes.

 

Mais c’est en 1956 que les sciences cognitives furent portées sur les fonts baptismaux, lorsque fut organisée à Darmouth, au Canada, une première conférence consacrée à l’intelligence artificielle dans le but de copier et simuler l’intelligence humaine. On lui donna pour nom: «cognition». Différentes disciplines s’efforcèrent alors de lui attribuer des contenus et des orientations spécifiques: notons, parmi d’autres, la linguistique, l’anthropologie, la psychologie, les neurosciences, la philosophie ou encore l’intelligence artificielle…

 

Les sciences cognitives ont depuis connu des avancées notables, en partie grâce au progrès de l’informatique (capacités et réseaux neuronaux), de la robotique, et enfin de l’imagerie cérébrale. Différents courants se complètent aujourd’hui, et parfois divergent. Pour les partisans du cognitivisme, le cerveau est comparable à un système de traitement de l’information qui manipule séquentiellement des symboles selon des règles précises. Dans cette optique, du moment que l’on connaît les processus mentaux, il est possible d’en déduire ce dont un système est capable et pourquoi. Le connexionnisme considère que l’esprit humain est modélisable par un système constitué d’ensemble d’unités interconnectées et opérant en parallèle, qui correspondent fonctionnellement – et grossièrement – à des neurones. Les performances du réseau sont évaluées en continu par des boucles rétroactives. Un courant plus récent enfin, l’énactivisme, qui remet en cause la logique purement rationaliste du cognitivisme, se fait le défenseur du dynamisme incarné, autrement appelé l’énaction. Cette école estime en particulier que la cognition est un phénomène temporel qui ne permet pas de distinguer l’esprit de l’organisme (il ne peut y avoir de séparation entre le corps et le cerveau, car les émotions sont incarnées) et de son interaction avec l’environnement.

 

  • Définition des sciences cognitives: modéliser la pensée?

Les sciences cognitives ne sont pas une science unitaire, car elles réunissent plusieurs disciplines autour d’un but commun. Elles peuvent être définies comme l’ensemble des connaissances et des études dédiées à la modélisation des processus par lesquels un système[9] (vivant ou non) aboutit, à partir d’informations réelles et de l’expérience, à une décision qui induit un comportement. Les grands domaines traités par les sciences cognitives se rapportent donc aux fonctions que sont la perception, le comportement, la mémoire, le langage, le raisonnement, les émotions, l’attention, l’apprentissage, la conscience, la communication, les interactions, soit tout ce qui rend compte d’une activité mentale. Plus concrètement, elles se donnent comme finalité de modéliser, c’est-à-dire de comprendre et décrire le fonctionnement des systèmes de traitement de l’information. On les distingue selon plusieurs types.

 

La compréhension des mécanismes du cerveau humain[10] arrive chronologiquement en première place. Le cerveau, au centre du système nerveux (le commandement de l’organisme), est constitué par un réseau de plus de 85 milliards de neurones et autant de cellules gliales, qui communiquent par des stimuli électriques et chimiques. Ils prennent à chaque milliseconde des millions de mini-décisions qui ébauchent une pensée. La mémorisation de l’information, pour laquelle il existe des structures cognitives variées et complexes (schémas, plans, scripts…), joue un rôle important dans les processus de raisonnement. On distingue de façon simple la mémoire à court terme[11], dont les informations sont disponibles rapidement, et la mémoire à long terme où réside tout le reste de l’information. La charge cognitive, soit la quantité d’informations que peut traiter et supporter le cerveau, est limitée; la maîtrise de tâches complexes passe alors par un apprentissage. Les mécanismes du cerveau sont de plus affectés par la durée de réflexion, son histoire, son interaction avec l’organisme et son environnement (émotions, culture), ainsi que par de nombreux biais cognitifs. Les avancées en neurologie ont été importantes ces dernières décennies, comme le décrit un rapport parlementaire récent[12]. Ainsi, la cartographie du cerveau est-elle de plus en plus précise; un groupe de chercheurs a récemment identifié 180 régions distinctes du cortex, dont 97 n’avaient jamais été décrites[13].

 

Sont étudiées ensuite les interactions entre individus et entre sociétés. À la naissance de la théorie des organisations, ces dernières étaient assimilées à des machines, notamment par Adam Smith. Elles sont désormais considérées comme des ensembles de relations interpersonnelles structurées en réseau: les individus représentent des nœuds, et les informations échangées des flux. Afin de rendre plus efficiente les organisations, le management tente d’améliorer le travail en groupe en s’appuyant sur des approches cognitives telles que les approches comportementales du Britannique Meredith Belbin[14], ou les process-communication de Taibi Kahler[15] et, enfin, la programmation neuro-linguistique[16]

 

Enfin se pose la question des machines. Les ordinateurs peuvent traiter des informations numériques nombreuses et de grandes tailles et disposent de capacités de calcul, de traitement et de stockage bien supérieures à celles de l’être humain. L’intelligence artificielle tente aujourd’hui d’atteindre et de dépasser les capacités de raisonnement du cerveau. Ainsi le machine learning permet-il de prédire des valeurs à partir de données (trop importantes en quantité pour être évaluées par le cerveau) qui lui servent d’exemples. Initialement conçue avec une vision computationnelle, cognitiviste, l’intelligence artificielle utilise aujourd’hui des structures de type «réseaux de neurones»: le deep learning. Le fonctionnement de celui-ci est calqué sur celui du cerveau humain, capable d’apprendre à partir de données brutes. On le retrouve entre autres dans le domaine de la reconnaissance vocale ou faciale et dans le traitement de texte. Cette intelligence artificielle, connectée aux capacités de la robotique, permet désormais d’effectuer des tâches autrefois dédiées aux hommes grâce aux systèmes experts. Par exemple, un robot, Vital, siège aujourd’hui au conseil d’administration de la société hongkongaise Deep Knowledge Venture depuis 2014[17]. Les avancées de l’intelligence artificielle «forte», consciente, capable de se représenter elle-même dans son environnement, nourrissent les fantasmes d’un robot humanoïde prenant son autonomie. Sur un autre plan, le rapport de l’homme à la machine (interface homme-machine, «l’IHM») mérite d’être étudié également: l’apprentissage du service et l’utilisation de la machine requièrent de la part du cerveau une charge cognitive souvent non négligeable, parfois supérieure à celle que nécessiterait la tâche sans machine.

 

 

  • De la modélisation[18] des PC comme systèmes cognitifs

Les PC peuvent être considérés comme des systèmes[19] de décision. Les armées ont toujours cherché, pour l’emporter sur l’ennemi, à décider plus vite et mieux. Les états-majors sont nés à la fin du XVIIIème siècle, initialement pour organiser les détails d’exécution de la décision des chefs; puis ils ont évolué pour permettre aux chefs de percevoir et synthétiser plus rapidement une masse exponentielle d’informations, dont il fallait pourtant déduire les manœuvres appropriées. Ainsi se sont formalisés les postes de commandement modernes, permettant de combiner l’analyse des conseillers à l’intention du chef pour aboutir à une décision. Afin de permettre une prise de décision efficiente et rapide par le PC, modéliser le raisonnement qui aboutit à un choix apporte un éclairage analogique. Aussi, si l’on s’intéresse à la cognition des systèmes de commandement, on peut distinguer trois couches correspondant aux trois principaux courants des sciences cognitives : cognitivisme, connexionnisme et énactivisme.

 

Le fonctionnement d’un PC peut être considéré comme celui d’un système manipulant séquentiellement des symboles (schémas tactiques, symboles tactiques, termes issus de glossaires, acronymes, etc.), suivant des règles précises : doctrine, règlements, principes. Le processus décisionnel consiste en une succession logique d’étapes, elles-mêmes décomposables en sous-étapes. L’environnement, la situation et la mission reçue sont perçus et analysés par différents capteurs, humains ou non. L’état-major effectue à proprement parler un raisonnement, et propose au chef des options. Ce processus est cyclique, et se renouvelle en fonction des évolutions de la situation. Les armées formalisent ce processus en doctrine, selon des principes conceptuels et des enseignements historiques. La simple boucle OODA (observe orient decide act, modèle décrit par le colonel John R. Boyd, de l’US Air Force, pour le duel aérien) et la complexe méthode de planification otanienne, la COPD[20], développée dans le cadre d’une approche globale en disposant de moyens technologiques avancés, en sont des exemples. Cette vision cognitiviste du PC a fait école, car elle permet de déterminer des options rationnelles et donc rassurantes pour les décideurs. Néanmoins, elle rend le PC prédictible : si l’on connaît la doctrine de l’adversaire, on peut estimer ses modes d’actions.

 

Les PC ont adapté leur structure au gré des besoins, jusqu’à adopter une organisation matricielle croisant hiérarchies et branches fonctionnelles, et intégrant les nouvelles technologies, en particulier la numérisation. La mise en réseau de tous les niveaux de commandement par l’intermédiaire de systèmes de communication permet des coordinations ad hoc : les réunions de travail réunissent des participants issus de différentes cellules, il est primordial de bien définir les modalités de ces réunions (« comitologie »), et principalement les responsabilités de chaque intervenant, à l’image des matrices RACI[21]. La maîtrise de l’information dans le cadre d’une approche globale devient donc la clé de voûte du fonctionnement de l’état-major : comment accéder aux données, sélectionner l’information pertinente, et la diffuser, malgré les contraintes de confidentialité. L’OTAN a ainsi conceptualisé le Knowledge development, repris par le CICDE dans une réflexion doctrinale interarmées (RDIA-004 du 18 juin 2010), et développé l’outil TOPFAS[22]  pour faciliter la planification. Le feedback est également présent avec le contrôle (performance des actions), le retour d’expérience et le pilotage, qui permettent au PC d’être conscient et de s’adapter. Cette vision connexionniste du fonctionnement du PC permet d’appréhender la simultanéité du travail des différentes cellules, ainsi que les problématiques de stockage, de flux et d’accès à l’information.

 

Les états-majors sont composés d’êtres humains : les aspects liés à l’énaction leur sont donc inhérents. La perception de l’environnement, rendue difficile par la friction et la complexité des conflits, influe sur l’évaluation des situations. Les heuristiques propres à l’humain et au groupe sont chargées de subjectivité et biaisent les raisonnements. Il est alors possible de les modéliser en partie, mais l’ensemble des processus cognitifs liés aux émotions (stress, fatigue, empathie, peur, etc.) reste encore méconnu. Les mécanismes de prise de décision sont de plus influencés par l’expérience des états-majors, leur culture, les valeurs partagées. La personnalité du chef, enfin, influe à l’évidence sur la décision : il oriente la planification, définit les critères de comparaison et choisit l’option qui lui paraît in fine la meilleure, ce qui n’implique pas qu’elle soit la plus objective.

 

Les processus des états-majors sont donc en partie modélisables : les approches cognitiviste et connexionniste décrivent l’organisation et le fonctionnement théoriques de l’état-major. L’approche énactiviste, quant à elle, permet de prendre en compte l’homme : en pratique, parce qu’il est composé d’êtres humains, aucun état-major n’applique totalement les méthodes. Cette modélisation – certes partielle – semble pouvoir permettre, grâce aux nouvelles technologies issues des progrès des sciences cognitives, de rendre les états-majors plus rapides et efficients. La condition essentielle pour améliorer son efficacité est la conscience de l’état-major, c’est-à-dire sa capacité à se représenter, à se décrire soi-même.

 

L’organisation du commandement et les sciences cognitives: le rêve d’une révolution?

 

  • Un peu de science (-fiction) cognitive

Aussi, compte tenu des potentiels, sinon des espoirs, voire des promesses (de Gascons?) que contiennent la recherche et le développement des sciences cognitives, il n’est pas interdit de laisser l’imagination conjecturer les évolutions qui pourraient intervenir dans un futur suffisamment lointain. Imaginons donc, avec un rien d’utopisme, qu’une véritable rupture apparaisse sous l’effet d’une révolution cognitive du commandement. Plaçons celle-ci assez loin, plus loin en tout cas que 2035, et allons plutôt jusqu’à 2050, car il faut du temps, et de la distanciation, pour que des probabilités raisonnables se distinguent d’hypothèses parfois un peu fantasques.

 

Voici donc le scénario: une grande puissance militaire, que l’on nommerait, par exemple, l’Atland, poursuit une politique agressive d’expansion. Elle s’empare de plusieurs territoires situés dans sa sphère d’influence, prétextant la défense de minorités atlandes. Devant cette rhétorique diplomatique peu orthodoxe, la communauté internationale s’émeut, l’ONU s’essouffle, l’Europe s’étonne, l’OTAN s’ébroue, mais le président atlande reste inflexible, jouant le quiproquo d’un statu quo pro domo, i.e de facto et stricto sensu, un casus belli. Aussi, toutes les négociations ayant avorté, une coalition emmenée par les États-Unis s’engage pour renvoyer les forces atlandes chez elles.

 

Militairement, les forces armées atlandes, bien entraînées et bien équipées, agissent selon des modes d’actions hybrides, combinant l’emploi d’unités robotisées avec des forces «humaines» et conventionnelles. La coalition fonctionne, elle aussi, sur un mode hybride. Elle dispose d’une gamme complète de robots et de plate-formes qui exploitent les technologies les plus avancées.

 

La différence de conception dans l’emploi de l’hybridité qui distingue les Atlandes et les coalisés a conduit à l’affrontement de deux modes d’actions distincts. L’armée atlande a développé une force massive de robots, privilégiant une quantité de petits systèmes mobiles, agressifs et autonomes, dans le but de submerger son ennemi par un emploi massif, selon une tactique proche du «swarming».

 

La coalition, a contrario, s’appuie sur une autre dimension des nouvelles technologies. En effet, les penseurs militaires occidentaux ont renoncé à l’illusion de l’écrasement de l’ennemi sous la masse mécanique. Ils ont substitué à l’accumulation de matériel l’accumulation de l’information, recherchant la sidération de l’adversaire par l’explosion des flux informationnels dans la compression du temps. La victoire dépend, à leurs yeux, de la capacité à soutenir un tempo cognitif toujours plus rapide. C’est pourquoi les efforts ont été portés depuis plusieurs décennies sur le développement militaire des sciences cognitives.

 

Ils ont déjà porté leurs fruits, et entraîné une transformation complète de l’organisation des forces et des structures de commandement. Ainsi, la force expéditionnaire engagée par la coalition est constituée de deux divisions, robotisées à seulement 40%. Face à elles, les forces atlandes s’élèvent à trois divisions, robotisées à 60%. Foncièrement pyramidales, ces dernières sont structurées de façon classique, selon le modèle en vigueur à l’aube du XXIème siècle des strates qui s’empilent pour coordonner et orienter l’action des échelons subordonnés. Les Atlandes, réputés pour leur pragmatisme, ont conservé un mode de décision et de diffusion de l’information foncièrement vertical éprouvé depuis des siècles: PC de composante, de divisions, de brigades et de régiments.

 

La coalition occidentale a, quant à elle, cassé ce type de structures dans le but de restaurer et de promouvoir l’initiative des plus bas échelons tactiques. Initiée en France par la doctrine Scorpion, cette approche a fait école en proposant, à l’ère de l’information, une forme restaurée de l’«Aufstragtaktik». Celle-ci, en stricte opposition au monolithisme de la verticalité, repose sur l’horizontalité de la gestion de l’information. Si l’organisation en métropole a relativement peu évolué depuis les années 2020, l’articulation des forces en opérations répond à un modèle de l’organisation en projet permanent, et se développe de façon quasi autonome sur le modèle d’un système neuronal. Chaque module se positionne et interagit selon la situation des autres, optant naturellement pour la meilleure solution possible au regard de l’état final recherché. En vue d’aller plus vite, les outils de coordination militaires désuets, tels que les fuseaux, les lignes de coordination ou le phasage de l’action, ont été abandonnés: l’échange permanent d’informations a permis d’en faire l’économie.

 

Ainsi, alors que les forces atlandes ont à leur tête des dizaines d’officiers généraux, la coalition n’est commandée que par trois généraux, qui se succèdent selon un principe de quart. Se relevant à tour de rôle toutes les huit heures, ils se branchent sur le système Cognitiveshare développé par le MIT en 2030, qui leur permet, en quelques minutes, de s’approprier la connaissance intime de la situation générale. Le couplage de ce système avec le logiciel d’analyse COPD4Victory, développé lui aussi aux États-Unis, assure la cohérence de leurs décisions et garantit qu’elles correspondent aux objectifs stratégiques fixés par le politique, tout en laissant une part non négligeable à l’expression de la personnalité du général de service. La combinaison est vertueuse: la conduite des opérations révèle d’une succession de prises de décisions parfaitement en phase avec les buts de guerre, mais toujours adaptées à l’instant donné. Elles sont en outre systématiquement testées par le désormais classique Hologrammic wargaming développé par MiliGoogle Corp. Pour les experts atlandes, il s’en dégage une impression d’irrationalité qui déjoue tous les pronostics que calculent leurs robots analystes, en dépit d’une intelligence artificielle extrêmement performante. En outre, le général de quart dispose d’un accès direct avec le politique, qui s’assure ainsi que la synergie politique-opinion publique-militaire se maintient en une stricte cohérence, selon les injonctions formulées par le Pentagone dans une publication fondatrice de 2035, Cognitiving Clausewitz’s Trinity.

 

Sur le plan tactique, ce fonctionnement en réseau horizontal permet aux forces coalisées d’optimiser la fluidité offerte par l’espace cyber. Elles fonctionnent par petits modules ultra réactifs et extrêmement mobiles, capables de priver l’ennemi, en dépit de sa masse de ressources, de sa liberté d’action. Luttant davantage contre le temps que contre ses adversaires, l’ennemi peine à réorienter ses forces pour reprendre l’ascendant, tandis que les coalisés se réarticulent sans cesse et le frappent dès qu’il dévoile une vulnérabilité. Cette pratique de la guerre est l’aboutissement de l’intelligence de situation, au sens le plus littéral du terme, permis par les sciences cognitives. Le brouillard de la guerre est pondéré par le système du BattleBigdata Mil-check, qui, combiné à l’optimisation des facultés cognitives des décideurs, a développé un mode d’action fulgurant et irrattrapable par la seule technologie, fût-elle la plus moderne.

 

Aussi, en quelques jours, et malgré un rapport quantitatif de forces équivalentes, le dispositif atlande s’effondre et les soldats se rendent en masse à la coalition. Les généraux atlandes, incapables de tenir le rythme imposé par la coalition, se retrouvent en incapacité de commander leurs subordonnés autrement qu’à contretemps: paralysé au cerveau, le système de commandement atlande s’est grippé, entraînant l’écroulement systémique de l’ensemble des forces.

 

  • Des limites aux évolutions potentielles

Le scénario imaginé plus haut exagère à dessein une rupture dans l’organisation du commandement, en cohérence avec la vision idéalisée d’un monde ultra-connecté et robotisé. Idéalisé, car il porte sans doute une large part d’utopie: de nombreuses limites le rendent inaccessible, au moins jusqu’à l’horizon de 2050. Ces limites sont d’ordres technologiques, organisationnelles, économiques, juridiques et, enfin, éthiques.

  • Limites technologiques et scientifiques

Pourtant, les sciences cognitives laissent entrevoir d’immenses potentiels. Ainsi, le projet FACETS[23], regroupant des chercheurs allemands, s’efforce aujourd’hui de concevoir un ordinateur censé fonctionner comme le cerveau humain. Certains scientifiques imaginent d’ailleurs qu’il sera possible de faire encore mieux à l’avenir que reproduire artificiellement l’intelligence humaine: numériser un authentique cerveau humain pour le transposer ensuite dans un ordinateur. En somme, il s’agirait d’activer l’esprit d’un individu en dehors de son enveloppe charnelle.

 

Ce type de projet reste cependant très théorique, et n’a pas encore abouti à des résultats qui indiqueraient un progrès inexorable dans la réduction des espaces encore inconnus de l’esprit humain. Aussi, et en l’état, il est vain d’imaginer à l’horizon 2050, encore moins 2035, des évolutions qui permettraient de modéliser pleinement les fonctionnalités du cerveau humain. Celles-ci ne sont ni quantifiables ni réductibles, d’un point de vue connexionniste en tout cas, à de simples formules. Il n’existe d’ailleurs pas de consensus pour définir scientifiquement ce que recouvre l’attention ou la mémoire, deux domaines où les sciences cognitives présentent un potentiel des plus significatifs. Dès lors qu’il est question d’objectiver la personnalité, l’intuition ou la créativité, une stricte rationalisation cognitiviste apparaît pour l’heure comme péremptoire. La compréhension globale des processus cognitifs reste de fait très théorique. Celle-ci n’a révélé que la partie immergée d’un iceberg que plusieurs décennies ne suffiront pas à deviner, encore moins à décoder pour qu’elle soit recodée sous la forme d’un logiciel[24].

 

 

  • Limites organisationnelles

En outre, il est peu probable que de telles technologies soient développées avant un horizon très lointain à une échelle industrielle, quand bien même celles-ci seraient arrivées à une entière maturité technologique, c’est-à-dire qu’elles seraient normées et maîtrisées. Le coût de tels programmes, mais également des réformes organisationnelles des structures qui les intégreraient dans les mondes civil ou militaire, apparaîtrait sans doute comme disproportionné au regard des bénéfices envisagés. Par exemple, les futurs supercalculateurs conceptualisés par Bull sont supposés atteindre, à l’avènement des années 2020, une puissance de calcul de l’ordre de l’hexaflops, soit à peu près le même niveau de performance que le cerveau humain. Mais le cerveau humain restera toujours un million de fois moins consommateur en énergie (20 à 30 mégawatts pour le supercalculateur, contre 30 watts pour le cerveau humain[25]). Le critère de rentabilité dans le sillage de la crise de 2008 risque de peser durablement sur le premier quart du XXIème siècle de façon rédhibitoire. Or, les systèmes innovants, mais lourds, qui pourraient être utilisés en 2035 et, pour une large part, en 2050, se conceptualisent aujourd’hui et devraient être mis en production dans les deux décennies qui viennent. Sans omettre également ceci: l’utilisation de moyens aussi nouveaux imposera inévitablement une évolution complète des critères de sélection et des cursus de formation pour permettre aux opérateurs de les mettre en œuvre et aux décideurs d’en saisir les potentialités.

 

 

  • Limites juridiques et éthiques

Enfin, quelles que soient les opportunités technologiques, des limites d’ordre éthique et juridique devraient ralentir, sinon entraver la mise en œuvre des applications dans ce domaine. Cela ne signifie pas qu’elles interrompent le processus quasi inexorable de la recherche, mais elles repousseront sans doute sa transformation industrielle à un avenir bien plus lointain que 2035 ou 2050. En particulier parce que le développement de la technologie est désormais tributaire du principe de précaution qui est inscrit en France dans la Constitution, dans une logique de préservation de l’environnement, certes, mais qui s’applique de facto à tous les champs de recherche. Aussi, à la charnière entre la bioéthique et la technologie, l’exploitation des sciences cognitives ne peut en être écartée tant que ses conséquences réelles sur l’homme ne seront pas maîtrisées[26].

 

De plus, il est un fait que les recherches sur l’homme, qu’elles soient cognitives ou génétiques, présentent des enjeux éminemment éthiques. Ceux-ci n’autorisent pas un développement inconsidéré d’opportunités technologiques. La crainte d’altérer la nature humaine en tentant de générer une sorte de surhomme, ou encore de créer des inégalités entre ceux qui auront ou non accès à la technologie, sont des questions qui dépassent la problématique des seules sciences cognitives et les soumettent à la même vigilance éthique et sociale. La possibilité qu’un système puisse échapper au contrôle humain semble inenvisageable pour des sociétés qui abordent la judiciarisation des objets connectés et des robots selon le principe impérieux de «l’homme dans la boucle», d’autant plus lorsqu’il est question de conflit et d’usage de la force. Il est à noter toutefois que l’autonomisation des machines se poursuit, à l’image de l’expérimentation des voitures autonomes, et que l’on peut donc envisager une acceptation grandissante de ces technologies, qui finiront par atteindre les systèmes de commandement.

 

Opportunités pour l’armée de Terre

 

Une fois posées les limites possibles de leur développement d’ici 2050, les progrès utiles et exploitables des sciences cognitives en matière de commandement apparaissent plus clairement: amélioration des capacités cognitives des chefs, développement des interfaces homme-machine permettant de profiter des avancées technologiques en robotique et intelligence artificielle, et optimisation de l’organisation des états-majors.

 

  • Facteurs humains

L’augmentation des capacités cognitives[27] des chefs peut se faire de différentes façons. L’objectif reste de gagner en lucidité (contre la fatigue, le stress) et en efficacité (rapidité, complexité) dans la prise de décision.

 

Tout d’abord, les avancées de l’imagerie médicale permettraient de sélectionner les chefs sur leur aptitude à résister au stress, à la fatigue, et à prendre des décisions complexes. Ce type de sélection existe déjà, par exemple pour définir l’aptitude à occuper des postes de pilotes.

 

L’entraînement restera répétitif: d’après Nathalie Koulmann, médecin chercheur à l’institut de recherche biomédicale des armées (IRBA), «l’entraînement spécifique à une tâche est la première forme d’optimisation des fonctions cognitives»[28].

 

Différentes techniques, certes pour certaines déjà connues, permettront d’augmenter les capacités de certaines fonctions cognitives. Nous pouvons citer entre autres:

  • La stimulation électrique transcrânienne (tDCS): une équipe de chercheurs de l’US Air Force a récemment montré qu’une stimulation par électrode au niveau du cortex préfrontal dorsolatéral gauche permettait l’augmentation de la capacité à traiter plusieurs problèmes simultanément[29].
 
  • Le recours à la pharmacopée, à différents produits dont les effets secondaires seront de mieux en mieux connus. On peut citer entre autres: le propranolol (bêtabloquant utilisé depuis 1960) pour réduire le stress[30], les «ampakines», stimulants utilisés pour augmenter la mémoire, ou le modafinil, qui sert pour lutter contre la narcolepsie et qui améliore la résistance à la privation de sommeil[31].
 
  • Les thérapies comportementales et cognitives (TCC), qui resituent le sujet dans son environnement, pourraient également favoriser l’apprentissage: d’après le psychothérapeute Jean Cottraux, «l'étude plus poussée des schémas cognitifs et de leur relation avec des réseaux de neurones permettra sans doute une avancée théorique dans un avenir proche»[32].
 
  • La créativité pourrait être stimulée: le publicitaire français Jean-Marie Dru a proposé la «disruption»[33], une méthode qui débute par l’analyse des biais cognitifs freinant l’innovation.
 
  • Les manipulations génétiques pourraient également être techniquement envisagées, mais pour Pierre-Yves Cusset, chargé de mission à France Stratégie, «il est très peu probable que l’on puisse améliorer significativement l’intelligence d’un individu en lui transférant la mutation d’un seul gène ou même d’un nombre limité de gènes»[34].

 

  • Interfaces homme-machine

Deux grandes familles d’améliorations possibles des interfaces entre les humains et les machines se dessinent.

 

D’une part, les interfaces cerveau-machine (ICM) permettraient non seulement l’amélioration des performances (homme augmenté), mais aussi la surveillance des états cérébraux (fatigue, stress, etc.) ou la commande de robots à distance (à l’image des manned-unmanned teaming, MUM-T, testés par la DARPA). Décrite dans une étude de l’IRSEM[35], l’interface cerveau-machine est une liaison directe entre un cerveau et une machine (robot, prothèse, ordinateur, etc.). L’activité cérébrale est mesurée par des capteurs; les données sont alors analysées et le dispositif, invasif (électrodes implantée) ou non-invasif (casque), envoie des ordres à un système de commande mécanique. Si cette technologie duale n’est pas encore mature et nourrit de nombreux fantasmes (communication par la pensée, contrôle de robot à distance, etc.), les progrès dans ce domaine sont considérables et devraient déboucher durant la prochaine décennie, particulièrement grâce à la fameuse convergence des NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).

 

D’autre part, l’ergonomie de l’interface homme-machine (IHM) devrait contribuer à rendre la technologie de plus en plus efficace, consolidant la confiance en la machine: l’utilisateur ne peut plus comprendre la complexité de fonctionnement de la machine. Les études menées dans ce sens visent à réduire la charge cognitive résultant de l’utilisation de technologies de plus en plus poussées, à permettre la sélection de l’information pertinente (par exemple la numérisation, où toutes les informations ne doivent pas être affichées en fonction du zoom de la carte), et enfin à permettre la visualisation de données complexes: réalité augmentée, cartes heuristiques, géomatique. Ces outils, couplés à des outils d’analyse de données, faciliteront la compréhension de l’environnement, et donc la prise de décision. Ils auront par exemple des implications directes en permettant une analyse poussée de l’ennemi. L’évolutivité des outils sera également étudiée, prenant en compte les besoins sans cesse mouvants des utilisateurs. Il faut encore espérer que les progrès de l’ergonomie des IHM suivront le rythme des nouvelles technologies, et donc que la charge cognitive liée à l’apprentissage et à la mise en œuvre de ces dernières cessera d’augmenter. Il est, de plus, à craindre, puisque ces outils sont programmés par des hommes, qu’ils reproduisent les biais du raisonnement humain et ne contribuent qu’à consolider les certitudes et les idées préconçues.

 

Ce renforcement du lien homme-machine passera par une confiance mutuelle, qui nécessitera une définition claire du partage d’autorité entre les responsabilités de l’homme et celles de la machine (un peu à l’image du RACI). Des réflexions sont ainsi menées dans ce sens pour le système de commandement et de contrôle de la défense anti-missiles balistiques. Quoiqu’il en soit, la confiance en la machine et son autonomisation devraient augmenter, à l’image de ce qui se passe dans le civil (telles les voitures, qui deviennent de plus en plus automatisées, voire autonomes). Les états-majors seront donc plus à même d’exploiter pleinement les capacités des outils informatiques.

 

  • Ingénierie des systèmes

L’optimisation des processus internes du PC participe à la qualité et à la rapidité de la décision. Cette optimisation passe par celle du travail en groupe, donc par l’amélioration de la circulation de l’information et de la connaissance.

 

L’optimisation du travail de l’état-major se fera d’abord par la prise en compte et la correction des biais cognitifs (biais de confirmation, ancrage mental, auto-complaisance, etc.). Des techniques de remise en cause existent, comme celle décrite par deux chercheurs[36], qui utilise des cartes cognitives pour appréhender la complexité des systèmes et en déceler les erreurs. Il est également envisageable, conformément aux conclusions d’un rapport de la Rand Corporation[37], que le progrès des outils d’analyse permette de réduire les «frictions» entre humains, en réduisant le volume des états-majors.

 

La volonté d’améliorer la circulation de l’information a toujours existé à la guerre. Elle est traduite aujourd’hui dans le concept de l’OTAN de Knowledge Development[38], ou encore dans l’existence de CMI (cellules de management de l’information) dans les états-majors, qui sont chargées de s’assurer que les informations parviennent bien aux bonnes personnes au bon moment. Le Général Hubin décrit une future organisation du commandement réactive[39], proche du combat collaboratif voulu par Scorpion, où les unités chargées de l’exécution (l’équivalent des SGTIA actuels) échangeraient davantage d’informations entre elles, où le niveau conduite (les GTIA) s’assurerait de la coordination, le niveau conception planifiant et combinant les effets. Cette volonté de décrire une structure en réseau plus efficace que la structure hiérarchique n’est pas nouvelle[40]. Il est vraisemblable que l’organisation du commandement gagnerait en souplesse, alliant à une structure de réseaux la possibilité de former des unités ad hoc, mais sans aller jusqu’à un fonctionnement comme celui décrit par le Général Hubin, car les relations humaines (dont les relations de commandement) resteront déterminantes pour garantir l’efficacité du système; à la guerre, seuls les chefs prennent les décisions, qui engagent la vie et la mor: la hiérarchie restera donc déterminante.

 

Ces progrès permettront donc de développer des techniques et des technologies certes déjà envisagées, mais qui connaissent aujourd’hui des applications limitées. Par une gestion plus rapide et efficace des données, les sciences cognitives semblent concourir à une décision bonne et rapide.

 
 

Séparateur
Titre : Sciences cognitives et organisation des postes de commandement
Auteur(s) : Madame LEBOEUF, le Commandant HOURS et le Chef d’escadrons LARCHET
Séparateur


Saut de ligne

Pensées mili-terre

Centre de doctrine et d’enseignement
du commandement

© 2017 CDEC. Tous droits réservés.
Réalisation CDEC/BFAO & SAILING.
Powered by WysiUp.

Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne
Saut de ligne

Contribution

Image
Cet espace permet à tous de contribuer collectivement à la Pensée mili-terre et au rayonnement de l'Armée de Terre, en partageant réflexions, débats stratégiques, et commentaires historiques.
Saut de ligne
Saut de ligne

Newsletter Pensées mili-terre

Image
Vous souhaitez reçevoir régulièrement la newsletter PENSÉES MILI-TERRE, rien de plus simple ! abonnez-vous gratuitement en complétant les champs ci-dessous.
Saut de ligne
Image
 
Saut de ligne
Image
 
Saut de ligne
Image
 
Saut de ligne
Saut de ligne