Les contenus multilingues proposés sur le site sont issus d'une traduction automatique.
 

 
 
 
 
 
Français
English
Français
English
 
 
 
Afficher
 
 
 
 
 
Afficher
 
 

Autres sources

 
Saut de ligne
Saut de ligne

Sciences cognitives et organisation des postes de commandement 2/2

cahier de la pensée mili-Terre
Sciences & technologies
Saut de ligne
Saut de ligne

Les sciences cognitives sont souvent considérées comme un effet de mode, voire une affaire de quelques spécialistes. Elles ont pourtant déjà révolutionné nombre de domaines et sont en pleine expansion. L’armée de Terre, qui a su prendre le virage de la numérisation, pourrait, et saurait-elle, tirer profit de ce nouveau champ d’évolution? Si oui, quelles découvertes cognitives seraient susceptibles de peser demain sur les structures de commandement? C’est à ces questions, et à beaucoup d’autres, que les auteurs de cet article tentent de répondre.

2/2


L’organisation du commandement et les sciences cognitives: le rêve d’une révolution?

  • Un peu de science (-fiction) cognitive

Aussi, compte tenu des potentiels, sinon des espoirs, voire des promesses (de Gascons?) que contiennent la recherche et le développement des sciences cognitives, il n’est pas interdit de laisser l’imagination conjecturer les évolutions qui pourraient intervenir dans un futur suffisamment lointain. Imaginons donc, avec un rien d’utopisme, qu’une véritable rupture apparaisse sous l’effet d’une révolution cognitive du commandement. Plaçons celle-ci assez loin, plus loin en tout cas que 2035, et allons plutôt jusqu’à 2050, car il faut du temps, et de la distanciation, pour que des probabilités raisonnables se distinguent d’hypothèses parfois un peu fantasques.

Voici donc le scénario: une grande puissance militaire, que l’on nommerait, par exemple, l’Atland, poursuit une politique agressive d’expansion. Elle s’empare de plusieurs territoires situés dans sa sphère d’influence, prétextant la défense de minorités atlandes. Devant cette rhétorique diplomatique peu orthodoxe, la communauté internationale s’émeut, l’ONU s’essouffle, l’Europe s’étonne, l’OTAN s’ébroue, mais le président atlande reste inflexible, jouant le quiproquo d’un statu quo pro domo, i.e de facto et stricto sensu, un casus belli. Aussi, toutes les négociations ayant avorté, une coalition emmenée par les États-Unis s’engage pour renvoyer les forces atlandes chez elles.

Militairement, les forces armées atlandes, bien entraînées et bien équipées, agissent selon des modes d’actions hybrides, combinant l’emploi d’unités robotisées avec des forces «humaines» et conventionnelles. La coalition fonctionne, elle aussi, sur un mode hybride. Elle dispose d’une gamme complète de robots et de plate-formes qui exploitent les technologies les plus avancées.

La différence de conception dans l’emploi de l’hybridité qui distingue les Atlandes et les coalisés a conduit à l’affrontement de deux modes d’actions distincts. L’armée atlande a développé une force massive de robots, privilégiant une quantité de petits systèmes mobiles, agressifs et autonomes, dans le but de submerger son ennemi par un emploi massif, selon une tactique proche du «swarming».

La coalition, a contrario, s’appuie sur une autre dimension des nouvelles technologies. En effet, les penseurs militaires occidentaux ont renoncé à l’illusion de l’écrasement de l’ennemi sous la masse mécanique. Ils ont substitué à l’accumulation de matériel l’accumulation de l’information, recherchant la sidération de l’adversaire par l’explosion des flux informationnels dans la compression du temps. La victoire dépend, à leurs yeux, de la capacité à soutenir un tempo cognitif toujours plus rapide. C’est pourquoi les efforts ont été portés depuis plusieurs décennies sur le développement militaire des sciences cognitives.

Ils ont déjà porté leurs fruits, et entraîné une transformation complète de l’organisation des forces et des structures de commandement. Ainsi, la force expéditionnaire engagée par la coalition est constituée de deux divisions, robotisées à seulement 40%. Face à elles, les forces atlandes s’élèvent à trois divisions, robotisées à 60%. Foncièrement pyramidales, ces dernières sont structurées de façon classique, selon le modèle en vigueur à l’aube du XXIème siècle des strates qui s’empilent pour coordonner et orienter l’action des échelons subordonnés. Les Atlandes, réputés pour leur pragmatisme, ont conservé un mode de décision et de diffusion de l’information foncièrement vertical éprouvé depuis des siècles: PC de composante, de divisions, de brigades et de régiments.

La coalition occidentale a, quant à elle, cassé ce type de structures dans le but de restaurer et de promouvoir l’initiative des plus bas échelons tactiques. Initiée en France par la doctrine Scorpion, cette approche a fait école en proposant, à l’ère de l’information, une forme restaurée de l’«Aufstragtaktik». Celle-ci, en stricte opposition au monolithisme de la verticalité, repose sur l’horizontalité de la gestion de l’information. Si l’organisation en métropole a relativement peu évolué depuis les années 2020, l’articulation des forces en opérations répond à un modèle de l’organisation en projet permanent, et se développe de façon quasi autonome sur le modèle d’un système neuronal. Chaque module se positionne et interagit selon la situation des autres, optant naturellement pour la meilleure solution possible au regard de l’état final recherché. En vue d’aller plus vite, les outils de coordination militaires désuets, tels que les fuseaux, les lignes de coordination ou le phasage de l’action, ont été abandonnés: l’échange permanent d’informations a permis d’en faire l’économie.

Ainsi, alors que les forces atlandes ont à leur tête des dizaines d’officiers généraux, la coalition n’est commandée que par trois généraux, qui se succèdent selon un principe de quart. Se relevant à tour de rôle toutes les huit heures, ils se branchent sur le système Cognitiveshare développé par le MIT en 2030, qui leur permet, en quelques minutes, de s’approprier la connaissance intime de la situation générale. Le couplage de ce système avec le logiciel d’analyse COPD4Victory, développé lui aussi aux États-Unis, assure la cohérence de leurs décisions et garantit qu’elles correspondent aux objectifs stratégiques fixés par le politique, tout en laissant une part non négligeable à l’expression de la personnalité du général de service. La combinaison est vertueuse: la conduite des opérations révèle d’une succession de prises de décisions parfaitement en phase avec les buts de guerre, mais toujours adaptées à l’instant donné. Elles sont en outre systématiquement testées par le désormais classique Hologrammic wargaming développé par MiliGoogle Corp. Pour les experts atlandes, il s’en dégage une impression d’irrationalité qui déjoue tous les pronostics que calculent leurs robots analystes, en dépit d’une intelligence artificielle extrêmement performante. En outre, le général de quart dispose d’un accès direct avec le politique, qui s’assure ainsi que la synergie politique-opinion publique-militaire se maintient en une stricte cohérence, selon les injonctions formulées par le Pentagone dans une publication fondatrice de 2035, Cognitiving Clausewitz’s Trinity.

Sur le plan tactique, ce fonctionnement en réseau horizontal permet aux forces coalisées d’optimiser la fluidité offerte par l’espace cyber. Elles fonctionnent par petits modules ultra réactifs et extrêmement mobiles, capables de priver l’ennemi, en dépit de sa masse de ressources, de sa liberté d’action. Luttant davantage contre le temps que contre ses adversaires, l’ennemi peine à réorienter ses forces pour reprendre l’ascendant, tandis que les coalisés se réarticulent sans cesse et le frappent dès qu’il dévoile une vulnérabilité. Cette pratique de la guerre est l’aboutissement de l’intelligence de situation, au sens le plus littéral du terme, permis par les sciences cognitives. Le brouillard de la guerre est pondéré par le système du BattleBigdata Mil-check, qui, combiné à l’optimisation des facultés cognitives des décideurs, a développé un mode d’action fulgurant et irrattrapable par la seule technologie, fût-elle la plus moderne.

Aussi, en quelques jours, et malgré un rapport quantitatif de forces équivalentes, le dispositif atlande s’effondre et les soldats se rendent en masse à la coalition. Les généraux atlandes, incapables de tenir le rythme imposé par la coalition, se retrouvent en incapacité de commander leurs subordonnés autrement qu’à contretemps: paralysé au cerveau, le système de commandement atlande s’est grippé, entraînant l’écroulement systémique de l’ensemble des forces.

  • Des limites aux évolutions potentielles

Le scénario imaginé plus haut exagère à dessein une rupture dans l’organisation du commandement, en cohérence avec la vision idéalisée d’un monde ultra-connecté et robotisé. Idéalisé, car il porte sans doute une large part d’utopie: de nombreuses limites le rendent inaccessible, au moins jusqu’à l’horizon de 2050. Ces limites sont d’ordres technologiques, organisationnelles, économiques, juridiques et, enfin, éthiques.

  • Limites technologiques et scientifiques

Pourtant, les sciences cognitives laissent entrevoir d’immenses potentiels. Ainsi, le projet FACETS[1], regroupant des chercheurs allemands, s’efforce aujourd’hui de concevoir un ordinateur censé fonctionner comme le cerveau humain. Certains scientifiques imaginent d’ailleurs qu’il sera possible de faire encore mieux à l’avenir que reproduire artificiellement l’intelligence humaine: numériser un authentique cerveau humain pour le transposer ensuite dans un ordinateur. En somme, il s’agirait d’activer l’esprit d’un individu en dehors de son enveloppe charnelle.

Ce type de projet reste cependant très théorique, et n’a pas encore abouti à des résultats qui indiqueraient un progrès inexorable dans la réduction des espaces encore inconnus de l’esprit humain. Aussi, et en l’état, il est vain d’imaginer à l’horizon 2050, encore moins 2035, des évolutions qui permettraient de modéliser pleinement les fonctionnalités du cerveau humain. Celles-ci ne sont ni quantifiables ni réductibles, d’un point de vue connexionniste en tout cas, à de simples formules. Il n’existe d’ailleurs pas de consensus pour définir scientifiquement ce que recouvre l’attention ou la mémoire, deux domaines où les sciences cognitives présentent un potentiel des plus significatifs. Dès lors qu’il est question d’objectiver la personnalité, l’intuition ou la créativité, une stricte rationalisation cognitiviste apparaît pour l’heure comme péremptoire. La compréhension globale des processus cognitifs reste de fait très théorique. Celle-ci n’a révélé que la partie immergée d’un iceberg que plusieurs décennies ne suffiront pas à deviner, encore moins à décoder pour qu’elle soit recodée sous la forme d’un logiciel[2].

  • Limites organisationnelles

En outre, il est peu probable que de telles technologies soient développées avant un horizon très lointain à une échelle industrielle, quand bien même celles-ci seraient arrivées à une entière maturité technologique, c’est-à-dire qu’elles seraient normées et maîtrisées. Le coût de tels programmes, mais également des réformes organisationnelles des structures qui les intégreraient dans les mondes civil ou militaire, apparaîtrait sans doute comme disproportionné au regard des bénéfices envisagés. Par exemple, les futurs supercalculateurs conceptualisés par Bull sont supposés atteindre, à l’avènement des années 2020, une puissance de calcul de l’ordre de l’hexaflops, soit à peu près le même niveau de performance que le cerveau humain. Mais le cerveau humain restera toujours un million de fois moins consommateur en énergie (20 à 30 mégawatts pour le supercalculateur, contre 30 watts pour le cerveau humain[3]). Le critère de rentabilité dans le sillage de la crise de 2008 risque de peser durablement sur le premier quart du XXIème siècle de façon rédhibitoire. Or, les systèmes innovants, mais lourds, qui pourraient être utilisés en 2035 et, pour une large part, en 2050, se conceptualisent aujourd’hui et devraient être mis en production dans les deux décennies qui viennent. Sans omettre également ceci: l’utilisation de moyens aussi nouveaux imposera inévitablement une évolution complète des critères de sélection et des cursus de formation pour permettre aux opérateurs de les mettre en œuvre et aux décideurs d’en saisir les potentialités.

  • Limites juridiques et éthiques

Enfin, quelles que soient les opportunités technologiques, des limites d’ordre éthique et juridique devraient ralentir, sinon entraver la mise en œuvre des applications dans ce domaine. Cela ne signifie pas qu’elles interrompent le processus quasi inexorable de la recherche, mais elles repousseront sans doute sa transformation industrielle à un avenir bien plus lointain que 2035 ou 2050. En particulier parce que le développement de la technologie est désormais tributaire du principe de précaution qui est inscrit en France dans la Constitution, dans une logique de préservation de l’environnement, certes, mais qui s’applique de facto à tous les champs de recherche. Aussi, à la charnière entre la bioéthique et la technologie, l’exploitation des sciences cognitives ne peut en être écartée tant que ses conséquences réelles sur l’homme ne seront pas maîtrisées[4].

De plus, il est un fait que les recherches sur l’homme, qu’elles soient cognitives ou génétiques, présentent des enjeux éminemment éthiques. Ceux-ci n’autorisent pas un développement inconsidéré d’opportunités technologiques. La crainte d’altérer la nature humaine en tentant de générer une sorte de surhomme, ou encore de créer des inégalités entre ceux qui auront ou non accès à la technologie, sont des questions qui dépassent la problématique des seules sciences cognitives et les soumettent à la même vigilance éthique et sociale. La possibilité qu’un système puisse échapper au contrôle humain semble inenvisageable pour des sociétés qui abordent la judiciarisation des objets connectés et des robots selon le principe impérieux de «l’homme dans la boucle», d’autant plus lorsqu’il est question de conflit et d’usage de la force. Il est à noter toutefois que l’autonomisation des machines se poursuit, à l’image de l’expérimentation des voitures autonomes, et que l’on peut donc envisager une acceptation grandissante de ces technologies, qui finiront par atteindre les systèmes de commandement.

 

Opportunités pour l’armée de Terre

Une fois posées les limites possibles de leur développement d’ici 2050, les progrès utiles et exploitables des sciences cognitives en matière de commandement apparaissent plus clairement: amélioration des capacités cognitives des chefs, développement des interfaces homme-machine permettant de profiter des avancées technologiques en robotique et intelligence artificielle, et optimisation de l’organisation des états-majors.

  • Facteurs humains

L’augmentation des capacités cognitives[5] des chefs peut se faire de différentes façons. L’objectif reste de gagner en lucidité (contre la fatigue, le stress) et en efficacité (rapidité, complexité) dans la prise de décision.

Tout d’abord, les avancées de l’imagerie médicale permettraient de sélectionner les chefs sur leur aptitude à résister au stress, à la fatigue, et à prendre des décisions complexes. Ce type de sélection existe déjà, par exemple pour définir l’aptitude à occuper des postes de pilotes.

L’entraînement restera répétitif: d’après Nathalie Koulmann, médecin chercheur à l’institut de recherche biomédicale des armées (IRBA), «l’entraînement spécifique à une tâche est la première forme d’optimisation des fonctions cognitives»[6].

Différentes techniques, certes pour certaines déjà connues, permettront d’augmenter les capacités de certaines fonctions cognitives. Nous pouvons citer entre autres:

  • La stimulation électrique transcrânienne (tDCS): une équipe de chercheurs de l’US Air Force a récemment montré qu’une stimulation par électrode au niveau du cortex préfrontal dorsolatéral gauche permettait l’augmentation de la capacité à traiter plusieurs problèmes simultanément[7].
  • Le recours à la pharmacopée, à différents produits dont les effets secondaires seront de mieux en mieux connus. On peut citer entre autres: le propranolol (bêtabloquant utilisé depuis 1960) pour réduire le stress[8], les «ampakines», stimulants utilisés pour augmenter la mémoire, ou le modafinil, qui sert pour lutter contre la narcolepsie et qui améliore la résistance à la privation de sommeil[9].
  • Les thérapies comportementales et cognitives (TCC), qui resituent le sujet dans son environnement, pourraient également favoriser l’apprentissage: d’après le psychothérapeute Jean Cottraux, «l'étude plus poussée des schémas cognitifs et de leur relation avec des réseaux de neurones permettra sans doute une avancée théorique dans un avenir proche»[10].
  • La créativité pourrait être stimulée: le publicitaire français Jean-Marie Dru a proposé la «disruption»[11], une méthode qui débute par l’analyse des biais cognitifs freinant l’innovation.
  • Les manipulations génétiques pourraient également être techniquement envisagées, mais pour Pierre-Yves Cusset, chargé de mission à France Stratégie, «il est très peu probable que l’on puisse améliorer significativement l’intelligence d’un individu en lui transférant la mutation d’un seul gène ou même d’un nombre limité de gènes»[12].
  • Interfaces homme-machine

Deux grandes familles d’améliorations possibles des interfaces entre les humains et les machines se dessinent.

D’une part, les interfaces cerveau-machine (ICM) permettraient non seulement l’amélioration des performances (homme augmenté), mais aussi la surveillance des états cérébraux (fatigue, stress, etc.) ou la commande de robots à distance (à l’image des manned-unmanned teaming, MUM-T, testés par la DARPA). Décrite dans une étude de l’IRSEM[13], l’interface cerveau-machine est une liaison directe entre un cerveau et une machine (robot, prothèse, ordinateur, etc.). L’activité cérébrale est mesurée par des capteurs; les données sont alors analysées et le dispositif, invasif (électrodes implantée) ou non-invasif (casque), envoie des ordres à un système de commande mécanique. Si cette technologie duale n’est pas encore mature et nourrit de nombreux fantasmes (communication par la pensée, contrôle de robot à distance, etc.), les progrès dans ce domaine sont considérables et devraient déboucher durant la prochaine décennie, particulièrement grâce à la fameuse convergence des NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).

D’autre part, l’ergonomie de l’interface homme-machine (IHM) devrait contribuer à rendre la technologie de plus en plus efficace, consolidant la confiance en la machine: l’utilisateur ne peut plus comprendre la complexité de fonctionnement de la machine. Les études menées dans ce sens visent à réduire la charge cognitive résultant de l’utilisation de technologies de plus en plus poussées, à permettre la sélection de l’information pertinente (par exemple la numérisation, où toutes les informations ne doivent pas être affichées en fonction du zoom de la carte), et enfin à permettre la visualisation de données complexes: réalité augmentée, cartes heuristiques, géomatique. Ces outils, couplés à des outils d’analyse de données, faciliteront la compréhension de l’environnement, et donc la prise de décision. Ils auront par exemple des implications directes en permettant une analyse poussée de l’ennemi. L’évolutivité des outils sera également étudiée, prenant en compte les besoins sans cesse mouvants des utilisateurs. Il faut encore espérer que les progrès de l’ergonomie des IHM suivront le rythme des nouvelles technologies, et donc que la charge cognitive liée à l’apprentissage et à la mise en œuvre de ces dernières cessera d’augmenter. Il est, de plus, à craindre, puisque ces outils sont programmés par des hommes, qu’ils reproduisent les biais du raisonnement humain et ne contribuent qu’à consolider les certitudes et les idées préconçues.

Ce renforcement du lien homme-machine passera par une confiance mutuelle, qui nécessitera une définition claire du partage d’autorité entre les responsabilités de l’homme et celles de la machine (un peu à l’image du RACI). Des réflexions sont ainsi menées dans ce sens pour le système de commandement et de contrôle de la défense anti-missiles balistiques. Quoiqu’il en soit, la confiance en la machine et son autonomisation devraient augmenter, à l’image de ce qui se passe dans le civil (telles les voitures, qui deviennent de plus en plus automatisées, voire autonomes). Les états-majors seront donc plus à même d’exploiter pleinement les capacités des outils informatiques.

  • Ingénierie des systèmes

L’optimisation des processus internes du PC participe à la qualité et à la rapidité de la décision. Cette optimisation passe par celle du travail en groupe, donc par l’amélioration de la circulation de l’information et de la connaissance.

L’optimisation du travail de l’état-major se fera d’abord par la prise en compte et la correction des biais cognitifs (biais de confirmation, ancrage mental, auto-complaisance, etc.). Des techniques de remise en cause existent, comme celle décrite par deux chercheurs[14], qui utilise des cartes cognitives pour appréhender la complexité des systèmes et en déceler les erreurs. Il est également envisageable, conformément aux conclusions d’un rapport de la Rand Corporation[15], que le progrès des outils d’analyse permette de réduire les «frictions» entre humains, en réduisant le volume des états-majors.

La volonté d’améliorer la circulation de l’information a toujours existé à la guerre. Elle est traduite aujourd’hui dans le concept de l’OTAN de Knowledge Development[16], ou encore dans l’existence de CMI (cellules de management de l’information) dans les états-majors, qui sont chargées de s’assurer que les informations parviennent bien aux bonnes personnes au bon moment. Le Général Hubin décrit une future organisation du commandement réactive[17], proche du combat collaboratif voulu par Scorpion, où les unités chargées de l’exécution (l’équivalent des SGTIA actuels) échangeraient davantage d’informations entre elles, où le niveau conduite (les GTIA) s’assurerait de la coordination, le niveau conception planifiant et combinant les effets. Cette volonté de décrire une structure en réseau plus efficace que la structure hiérarchique n’est pas nouvelle[18]. Il est vraisemblable que l’organisation du commandement gagnerait en souplesse, alliant à une structure de réseaux la possibilité de former des unités ad hoc, mais sans aller jusqu’à un fonctionnement comme celui décrit par le Général Hubin, car les relations humaines (dont les relations de commandement) resteront déterminantes pour garantir l’efficacité du système; à la guerre, seuls les chefs prennent les décisions, qui engagent la vie et la mor: la hiérarchie restera donc déterminante.

Ces progrès permettront donc de développer des techniques et des technologies certes déjà envisagées, mais qui connaissent aujourd’hui des applications limitées. Par une gestion plus rapide et efficace des données, les sciences cognitives semblent concourir à une décision bonne et rapide.

 

Conclusion: penser vite et mieux

Comprendre le fonctionnement d’un cerveau et en modéliser les dynamiques, c’est décoder la formule qui transforme l’information en décision. C’est saisir les principes qui encadrent et expliquent la manière dont l’individu interagit et influe sur son environnement. Une cellule de décision opérationnelle s’efforce de réaliser exactement la même opération par la planification et la conduite: l’organisation du commandement apparaît comme un mimétisme cognitif. Un système de commandement, et par conséquent tout poste de commandement, reproduit les mêmes processus de recueil et de traitement de données pour aboutir à des options priorisées. Les recherches en sciences cognitives devraient donc converger avec la volonté d’améliorer l’organisation des PC. Plus celles-ci seront connues et maîtrisées, et plus celle-là en tirera des modèles de fonctionnement toujours plus performants.

Compte tenu des limites décrites, présentées dans cette étude, il est probablement vain de prétendre aboutir un jour à une science exacte de la pensée. Comme pour toute autre science, sans doute faut-il se contenter de prendre les sciences cognitives pour ce qu’elles sont: une approche méthodique pour corriger progressivement, et de façon complémentaire, des hypothèses. Une science n’a pas pour vocation d’apporter des réponses fermes et définitives, mais de décrypter ce qu’elle ne connaît pas encore. Descartes n’a ni invalidé ni remplacé les mathématiques d’Euclide: il les a précisées et fait progresser. De la même manière, les sciences cognitives ne vont pas révolutionner l’organisation du commandement, en tout cas probablement pas dans un avenir proche, mais la perfectionner. À cet égard, elles présentent un potentiel riche. Elles éclairent sur les pratiques heureuses dans la gestion de l’information, et elles révèlent des processus qui peuvent être imités artificiellement avec d’autant plus d’efficacité qu’ils se rapprochent de la nature même de la pensée.

Il semble surtout que les sciences cognitives aident à comprendre la manière dont se conduisent et s’exploitent les flux d’informations, ce qui peut avoir des implications conjoncturelles, mais non structurelles à ce jour, dans les modèles d’organisation et la gestion des ressources dédiées à la prise de décision. Cela conduit à les apprécier comme des facteurs de progrès, mais non comme la rupture dont les militaires sont parfois friands…

 

 

[1] http://facets.kip.uni-heidelberg.de/public/

[2] À ce titre, notons ici que la nature même de la «science de la pensée» fait débat et repousse toute affirmation péremptoire quant à l’objet des sciences cognitives. Car il faudrait pouvoir déterminer si la pensée est portée par des mots ou des images. Deux écoles s’affrontent, l’une réaliste et l’autre constructiviste, qui trouvent leurs sources dans la querelle des universaux, dont il n’est pas question de choisir l’une ou l’autre ici, mais qui révèlent dans leur opposition qu’il est impossible de trancher en l’état et de tirer des certitudes des hypothèses que tentent de confirmer les sciences cognitives. De fait, depuis le cogito cartésien, la pensée a été souvent comprise comme l’interaction de concepts, liés entre eux par des suites logiques. Cette approche causale a permis de poser l’hypothèse d’un fonctionnement mécanique de la pensée et d’en déduire un codage qui aboutit aux ordinateurs (Georges Boole déclarait: «les lois qu’ils nous faut construire sont celles de l’esprit humain». Une telle conception a introduit un biais qui donne à envisager les opérations de l’esprit comme des opérations mathématiques). L’école constructiviste s’oppose à cette conception, car elle fait l’économie d’une pensée qui véhiculerait des idées-images et non des idées symboles. La linguistique cognitive ne voit en effet dans l’association du mot et de l’idée qu’une représentation incapable de traduire la substance de la pensée et donc la possibilité d’en rendre compte objectivement.

[3] D’après Simon Horst, directeur adjoint des laboratoires Lawrence Berkley, dans http://itbulletin.fr/2014/11/18/quand-lapuissance- de-calcul-rejoint-celle-du-cerveau-humain/

[4] Conceptualisé par Hans Jonas en 1970 dans l’optique d’un progrès scientifique respectueux de l’environnement, le principe de précaution est supposé prévenir les conséquences irrémédiables et destructrices d’une science sans conscience. Il est entré dans le droit international au sommet de Rio et au traité au Maastricht en 1992. La révision constitutionnelle de 2005 l’intègre dans la Charte de l’environnement qui précise son application dans son article 5: «Lorsque la réalisation d'un dommage, bien qu'incertaine en l'état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l'environnement, les autorités publiques veilleront, par application du principe de précaution, et dans leurs domaines d'attribution, à la mise en œuvre de procédures d'évaluation des risques et à l'adoption de mesures provisoires et proportionnées afin de parer la réalisation du dommage».

[5] Lire à ce sujet l’article de deux médecins de l’institut de recherche biomédicale des armées (Canini & Trousselard, 2016)

[6] Koulmann, 2012

[7] Nelson, 2016

[8] http://www.ladepeche.fr/article/2015/12/21/2242406-toulouse-mise-medicament-soigner-stress-traumatique.html

[9] (Koulmann, 2012)

[10] (Cottraux, 2006)

[11] (Dru, 2016)

[12] Colin & dir., «L'Homme augmenté, réflexions sociologiques pour le militaire», 2016.

[13] Colin, 2012

[14] Laroche & Nioche, 2006

[15] Ries, 2016

[16] RDIA-004 - Knowledge Development, 2010

[17] Général Hubin, 2003

[18] Dès 1998, suite à l’opération Desert Storm, l’Amiral américain Cebrowski crée le concept de network centric warfare NCW (De Neve & Henrotin, 2006): il transpose au monde militaire la façon dont l’entreprise a organisé ses réseaux informatiques, permettant d’augmenter la productivité tout en la rendant plus réactive.

 

Diplômée de l’Institut d’études politique de Paris, titulaire d’un DEA de relations internationales et docteur de l’Université de Paris I en sciences politiques, Madame Aline LEBŒUF est chercheur au centre des études de sécurité de l’Institut français de relations internationales. Elle a été auditeur au Cours supérieur interarmes de septembre 2016 à janvier 2017

Saint-cyrien de la promotion «Général de Galbert», le Chef de bataillon HOURS choisit de servir dans l'infanterie. Il effectue sa première partie de carrière au 16ème bataillon de chasseurs, comme chef de section, officier adjoint puis commandant d’unité. Affecté à l'École de l'infanterie de 2013 à 2016, il sert en tant que brigadier à la division d'application.

Saint-cyrien de la promotion «Général de Galbert», le Chef d’escadrons LARCHET a servi au 1er Régiment étranger de cavalerie et au Centre de doctrine d’emploi des forces. Il a suivi le Cours supérieur interarmes de septembre 2016 à janvier 2017.

Séparateur
Titre : Sciences cognitives et organisation des postes de commandement 2/2
Auteur(s) : Madame LEBOEUF, le Commandant HOURS et le Chef d’escadrons LARCHET
Séparateur


Armée