Par Laurent Lagneau via Observateur-Continental
Pour schématiser à grands traits, la «guerre cognitive» consiste à s’adresser à des groupes d’individus pour leur faire prendre des vessies pour des lanternes afin d’obtenir un effet tactique, voire stratégique quand il s’agit de déstabiliser une société dans le cadre d’une campagne menée sur le long terme.
Cette «guerre cognitive» n’est pas foncièrement une nouveauté… En revanche, les progrès technologiques, en particulier dans les domaines de la cybernétique et des biotechnologies, associés à l’évolution des connaissances en matière de neurosciences, font que, de nos jours, il est sans doute plus facile qu’avant d’exploiter les faiblesses du cerveau humain.
Dans son livre Apocalypse cognitive, le sociologue Gérald Bronner en décrit quelques unes. Comme, par exemple, le «biais de confirmation», qui «explique une partie du succès de la crédulité – plus il existe d’informations disponibles, plus il est aisé d’en trouver au moins une qui confirme nos croyances». Ainsi, écrit-il, celui-ci est «profondément enfoui dans notre cortex», comme l’ont montré une équipe de savants de l’université de Californie du Sud, qui en a dessiné, par imagerie cérébrale, ses «mécanismes neuroneux».
«Une information [politique, dans le cas de son expérimentation] contraire à nos idées excite des modules cérébraux essentiels dans l’évaluation du moi. En d’autres termes, la rencontre d’informations contradictoires à nos croyances nous met en danger, au moins au sens figuré: elle représente une attaque de notre identité. La crédulité, parce qu’elle est véloce, est souvent la première forme de narration qui s’offre à rendre compte d’un phénomène énigmatique. Dans ces conditions, elle a des chances d’ancrer en nous des formes de représentation du monde auxquelles nous nous mettrons à tenir dès lors que nous les aurons endossées», explique le sociologue.
Et si on y ajoute la loi de Brandolini, selon laquelle la «quantité d’énergie nécessaire à réfuter des idioties est supérieure à celle qu’il faut pour les produire», la «crédulité possède un avantage concurrentiel sur le marché cognitif dérégulé car rétablir la vérité est souvent plus coûteux que de la travestir», poursuit Gérald Bronner. Ce qu’Alexis de Toqueville avait déjà décrit en son temps, en affirmant qu’un «idée fausse mais claire et précise, aura toujours plus de puissance dans le monde qu’une idée vraie, mais complexe».
Ces «infox», quelles que soient leurs fins et leur origine, se diffusent «plus vite, plus pronfondément et plus largement» que les vraies. «Le problème relève […] des êtres humains et de leur cerveau hypercomplexe. C’est par l’entremise des humains que le faux contamine notre monde. Les fausses informations vont six fois plus vite et sont plus partagées et repartagées que les vraies informations», avance le sociologue.
Qui plus est, la première impression que produit une «infox» ne s’efface pas rapidement. «Même lorsque l’individu qui y est confronté apprend ensuite qu’elle est bel et bien fausse», ont démontré JonasDe keersmaecker et Arne Roets, deux chercheurs de l’Université de Gand.
Cela étant, la diffusion d’infox n’est qu’un aspect de cette «guerre cognitive». Une étude publiée par l’Otan, en mai 2021, explique en effet qu’il suffit d’un «document officiel embarrassant, piraté à partir de la messagerie d’un responsable public et partagé anonymement sur un média social ou diffusé de manière ciblée à des groupes d’opposition sur un réseau social, pour créer de la dissension».
Et d’ajouter: «Si les faux comptes sur les médias sociaux ou les bots, avec leurs messages automatisés, peuvent renforcer cette dynamique, ils ne sont pas indispensables [une étude récente du MIT a montré que les seules émotions de la surprise et du dégoût suffisaient pour que les messages se répandent comme une traînée de poudre, repartagés en une fraction de seconde par des utilisateurs ordinaires -et non par des bots]».
Dans un cas comme dans l’autre, les réseaux sociaux jouent un rôle prépondérant, dans le sens où ils ont tendance à monopoliser l’attention. Ceux-ci, ainsi que les «appareils intelligents» [tablette, téléphone, etc] «peuvent également contribuer à amoindrir nos capacités cognitives», lit-on dans l’étude de l’Otan. «L’utilisation des médias sociaux peut en effet renforcer les biais cognitifs et la propension à l’erreur dans la prise de décision décrits par le comportementaliste Daniel Kahneman, lauréat du prix Nobel, dans son livre Thinking, Fast and Slow, traduit en français sous le titre Système 1 / Système 2: les deux vitesses de la pensée, ajoute le texte.
Or, comme le souligne Gérald Bronner, «pour remporter la bataille de la conviction, il faut gagner celle de l’attention». D’où, donc, leur importance et celle, demain, de la réalité virtuelle et augmentée, sur laquelle reposera un ensemble d’espace virtuels et interconnectés permettant à des individus de partager des expériences immersives en temps réel et en 3D. Un concept décrit par le romancier Neal Stephenson, dans Le Samouraï virtuel et repris par le groupe Meta [le propriétaire de Facebook, ndlr] avec son projet de Metavers.
Ces mondes virtuels pourraient ainsi offrir des réalités alternatives, effaçant la «vie réelle». C’est d’ailleurs le thème d’un roman adapté par Steven Spielberg en 2018 [Ready Player one , ndlr]… Mais aussi la trame d’un scénario imaginé par la Red Team, l’équipe d’auteurs de science-fiction et de scientifiques réunie par l’Agence de l’Innovation de Défense [AID]. Sous l’effet des progrès en matière de neurosciences [comme des implants permettant, par exemple, d’effacer ou de modifier des souvenirs], celui-ci, intitulé «balkanisation culturelle» prévoit l’apparition de «Safe Spheres» représentant chacune une communauté particulière. Mais on n’en est pas encore là… Mais le ministère des Armées entend s’y préparer.
En effet, dans un discours prononcé lors de l’édition 2021 du Forum Innnovation Défense [FID], la ministre des Armées, Florence Parly, a évoqué les «possibilités d’une nouvelle forme de menace combinant des capacités dans la manipulation de l’information, de désinformation, de cybernétique, de psychologie, d’ingénierie sociale, de biotechnologies et que l’on pourrait résumer en une sorte de nouvelle forme de guerre: la guerre cognitive».
«La guerre cognitive, c’est la capacité à exploiter les vulnérabilités du cerveau humain en ayant recours à toutes les méthodes que je viens de citer», a poursuivi Mme Parly.
La récente doctrine de «Lutte informatique d’influence» [L2I], dévoilée en octobre par l’Etat-major des armées [EMA] entre dans le cadre de cette «guerre cognitive». C’est d’ailleurs ce qu’a rappelé la ministre. Mais il s’agit donc d’aller encore plus loin.
«C’est un domaine qui ne relève pas du tout de la science fiction. C’est pourquoi le ministère des Armées lancera d’ici la fin de cette année un nouveau projet qui s’appelle MYRIADE et qui aura pour mission de nous permettre de mieux comprendre, d’anticiper et d’identifier les facteurs critiques de ce nouveau domaine potentiel de conflictualité, dans une démarche innovante impliquant plusieurs services du ministère et pouvant associer des PME et des start-ups sur la question des menaces cognitives», a annoncé Mme Parly.
Pour le moment, il faudra se contenter de cette brève description de ce nouveau programme, lequel ne devrait pas manquer de poser des questions au comité d’éthique de la défense.
Laurent Lagneau
Les opinions exprimées par les analystes ne peuvent être considérées comme émanant des éditeurs du portail. Elles n’engagent que la responsabilité des auteurs
La difficulté est de discerner la vérité dans le fatra d’informations et de désinformations qu’on nous donne. En définitive il n’y a que le temps et l’information vérifiable par ses effets dans le réel qui permettent de le faire.
Sauf que dans cette société de spectacle comme l’annonçait t Guy Debord le vrai est un moment du faux…