La lutte contre les manipulations de l’information : de vulnérabilités plurielles vers une stratégie intégrale

La « stratégie nationale de lutte contre les manipulations de l’information 2026-2030 » du SGDSN (Secrétariat de la Défense et de la sécurité nationale) consacre la volonté française de se doter d’instruments de protection contre les tentatives de manipulation de l’information orchestrées par des compétiteurs stratégiques. Publiée en février 2026, elle formalise les initiatives déjà à l’œuvre depuis 2021 sous l’égide du SGDSN avec la création de VIGINUM, qui assure la vigilance et la protection contre les ingérences numériques étrangères ; et structure les ambitions françaises à horizon 2030.

Le sujet de l’influence par les manipulations de l’information devient ainsi un outil de pouvoir, autour duquel se structure progressivement une « communauté LMI (lutte contre les manipulations de l’information) » composée d’experts, fonctionnaires, militaires, chercheurs ou encore journalistes, s’inscrivant plus largement dans le concept internationalement reconnu de FIMI (Foreign information manipulation and interference). Les enjeux et contours de ces concepts font l’objet d’un volume croissant de travaux de recherche en France, mais ceux-ci suivent une dynamique plutôt unidirectionnelle. Ils démontrent en effet un intérêt prégnant pour la caractérisation des techniques de manipulations de l’information, à travers l’analyse des formes discursives empruntées par les narratifs adverses, des modes opératoires informationnels, ou encore sous un prisme géographique voire cartographique.

Si la richesse de ces travaux permet de mieux comprendre les logiques et les intérêts des acteurs à l’œuvre derrière les manipulations de l’information et de mieux les définir, nous proposons ici une analyse interdisciplinaire. Sciences cognitives, sociales, et approche sociétale permettent en effet de caractériser les mécanismes de « réception » par les auditoires ciblés, et de défendre la nécessité d’une réponse intégrale. Croiser les regards sur le phénomène des manipulations de l’information apparait indispensable, tant le sujet transcende aujourd’hui les Etats, l’espace informationnel et public, et surtout l’humain.  

Des vulnérabilités individuelles : les apports d’une approche cognitive

Comprendre les mécanismes cognitifs permet d’appréhender la façon dont tout individu reçoit et répond à une information donnée. Si l’approche cognitive n’a pas la prétention de l’universalité, elle permet toutefois de dégager des lois générales du comportement humain, et est un premier outil intéressant pour comprendre les mécanismes de pénétration d’un récit.

L’approche duale des modes de raisonnement théorisée par David Kahneman soutient l’existence de deux systèmes de pensée, l’un plus intuitif et émotionnel (« système 1 »), et l’autre plus analytique et donc plus lent, nécessitant une concentration accrue de la part de l’individu (« système 2 »). Le « système 1 » fonctionne majoritairement par analogie, en basant la réflexion sur des informations récentes, des expériences vécues et/ou des situations familières. Utilisé 95% du temps de manière inconsciente, il permet aux individus une certaine aisance cognitive dans le traitement des informations, grâce aux « biais cognitifs », assurant des fonctions utiles pour le système de pensée. Ceux-ci peuvent toutefois induire des erreurs de jugement et sont donc des leviers facilement activables par quiconque souhaiterait infléchir la perception d’une information chez un individu, et favoriser l’adhésion à un narratif. Les nouvelles technologies comme l’intelligence artificielle et l’utilisation croissante des réseaux sociaux facilitent ce mécanisme, comme l’illustrent les exemples suivants :

L’effet de vérité illusoire est la tendance à croire qu’une information est correcte après une exposition répétée. Cet effet est accentué par les algorithmes des réseaux sociaux comme Tiktok, qui, en proposant aux internautes du contenu semblable à un contenu déjà liké, vont créer des bulles informationnelles. Cet effet est couplé au biais de confirmation, qui conduit les individus à privilégier les informations en accord avec leurs croyances préexistantes et à rejeter les informations dissonantes plus couteuses à traiter cognitivement. Ces biais favorisent ainsi l’adhésion à de potentiels narratifs diffusés à des fins de manipulation.

Le biais de familiarité est la tendance à faire davantage confiance à ce qui nous est anthropologiquement et/ou socialement proche. Ce biais est particulièrement activé lors de l’utilisation de proxy, c’est-à-dire d’intermédiaires, par les auteurs d’une opération de manipulation d’information. Cette technique permet de s’arroger la confiance de l’auditoire ciblé en masquant sa véritable identité, mais aussi de donner l’illusion que l’information est diffusée par un internaute qui nous est semblable, et dont l’opinion est autant légitime que la nôtre. Par exemple, c’est par l’intermédiaire d’un faux compte au nom de @DiaDarra6, se faisant passer pour un ancien militaire et « patriote malien », que l’une des premières opérations de manipulation de l’information débunkée par les armées françaises et attribuée au groupe paramilitaire Wagner, cherchait à décrédibiliser l’image de nos forces. L’information délivrée attestait l’existence d’un « charnier » laissé pour compte par l’armée française à Gossi. L’utilisation d’un internaute au phénotype semblable à celui de l’auditoire cible est ici une stratégie exploitant le biais de familiarité.

Tweet de l’internaute Dia Diarra dénonçant le charnier de Gossi

Le biais de disponibilité est la tendance selon laquelle des informations émotionnellement saillantes ou fréquemment rencontrées deviennent plus disponibles, c’est-à-dire plus facilement activables en mémoire. Ce biais lié à l’émotion est facilement exploitable par les contenus créés par intelligence artificielle. Cette campagne de fausses vidéos représentant des soldats ukrainiens en pleurs et suppliant de cesser la guerre, diffusée en novembre 2025 sur Tiktok, est éloquente.

Vidéos générées par intelligence artificielle et publiées sur Tiktok en novembre 2025, diffusant de fausses représentations de soldats ukrainiens prêts à la reddition

Les biais nstituent le fonctionnement normal de la cognition humaine. Dès lors, les stratégies d’influence par les manipulations de l’information ne cherchent pas à convaincre rationnellement, mais à orienter l’environnement informationnel de manière à activer ces biais de façon répétée et cumulative. Capitaliser sur ces leviers cognitifs permet à leurs auteurs de toucher des auditoires aussi vastes que possibles de façon indiscriminée.

Des vulnérabilités sociétales : une approche multiscalaire

La France est le 2e pays le plus ciblé par la désinformation en Europe après l’Ukraine (152 attaques informationnelles dénombrées en 2024, principalement dans le cadre des Jeux olympiques), alors qu’elle n’est pas directement impliquée dans un conflit cinétique. Plusieurs facteurs peuvent expliquer cette exposition accrue aux manipulations de l’information. Sa position clé dans de nombreuses instances diplomatico-militaires internationales (l’ONU, l’OTAN, l’UE, etc.), l’aide assumée délivrée à l’Ukraine, ou encore son rôle de puissance nucléaire, en font une cible privilégiée sur la scène internationale. Afin de la concurrencer sur le terrain géopolitique, les compétiteurs capitalisent sur des facteurs propres au bagage historique de la France, parfois déjà sources de tensions. Ce fut par exemple le cas des attaques réputationnelles contre la présence française dans de nombreux pays d’Afrique, notamment via l’exploitation de différents modes opératoires informationnels par groupe paramilitaire Wagner.  L’exemple de ce dessin animé diffusé au Mali en 2022 est doublement intéressant.

Capture d'écrans issus du dessin animé russe analysé par TV5 Monde

D’abord, l’utilisation d’un dessin-animé pour diaboliser le « colonisateur » provoque des effets cognitifs comme l’effet de la supériorité de l’image, qui décrit la tendance de l’individu à retenir plus facilement quelque chose de visuellement bizarre, drôle ou anthropologiquement saillant. D’autre part, si les cibles principales sont les populations maliennes, il est possible de distinguer une cible indirecte : les sociétés occidentales partageant un même référentiel mythologique. En effet, la métaphore animalière pour représenter l’ennemi, à savoir le Python, est une allégorie satanique intemporelle de désignation de l’adversaire. Les populations y sont sauvées par un Apollon moderne estampillé Wagner sur son épaule gauche, descendant du ciel à bord d’un parachute. Ici, les Russes envoient un message de supériorité militaire à leurs compétiteurs par un truchement allégorique. Cet exemple montre l’activation de leviers cognitifs, articulés à des registres culturels, politiques ou encore religieux, familiers, chargés historiquement, et entrant en résonance avec les références mémorielles du destinataire.

Saper la crédibilité française sur la scène internationale passe aussi par l’exploitation de tensions nationales internes, comme lorsqu’elle est attaquée sous l’angle de sa présence Outre-Mer. Le Baku initiative Group, organisme lié au pouvoir azerbaïdjanais, a par exemple essayé de tirer parti des évènements en Nouvelle-Calédonie en mai 2024 pour accentuer la polarisation des débats en France, en s’appropriant notamment les revendications des groupes indépendantistes pour appuyer ses narratifs. Plus généralement, les manipulations informationnelles s’arriment à des sujets d’actualité, traités médiatiquement, et qui ont tendance à diviser le débat public. En témoigne la publication d’une vidéo sur X, le 20 janvier dernier, attribuant de fausses affirmations au Président Emmanuel Macron lors de son discours aux Armées. Dans cet extrait, une manipulation vocale par IA ou la construction de phrases à partir de mots extraits d’anciens discours ont permis à son auteur de faire dire au Président français que des « pays africains aideront la France en cas de guerre ». Aussitôt démentie par le compte du ministère des Affaires étrangères French Response, cette publication s’inscrit dans le cadre des tensions géopolitiques actuelles autour du conflit russo-ukrainien, source de débat intra européen voire national autour de l’envoi de soldats français sur le théâtre, et des velléités de Washington sur le Groenland, ayant représenté un sujet de friction entre pays membres de l’OTAN. Elle vise ainsi la division du débat public français et européen, mais alimente également un narratif anti-français au sein de pays africains se retrouvant faussement impliqués dans des conflits qui ne les concernent pas directement.

Le compte French Response, un outil pour la France dans la lutte informationnelle

En outre, le libéralisme médiatique français, couplé à un usage important des réseaux sociaux, en font un terrain fertile pour une exposition rapide et virale à des informations manipulées. En effet, la transformation des écosystèmes informationnels, par la prolifération de ses sources et la diversification de ses pratiques (multiplication des outils numériques, essor des réseaux sociaux, médias d’info en continu, etc.), ont modifié le rapport à l’actualité. Aujourd’hui, en France, chaque individu est en moyenne exposé à plus de huit canaux d’information différents, avec les réseaux sociaux comme vecteur principal. Cette tendance à la surcharge informationnelle nous enjoint à nous tourner vers des informations moins coûteuses à analyser cognitivement, chargées émotionnellement et donc facilement polarisantes. Les manipulations de l’information accentuent cette polarisation, en amplifiant des sujets anxiogènes, comme la prolifération des punaises de lit par exemple, tout en jouant sur la crédibilité des médias traditionnels, à travers l’usurpation de chartes graphiques de médias existants pour diffuser de fausses informations.

Ces différents modes opératoires agissent donc à la fois sur des leviers cognitifs, sur la structure de l’écosystème informationnel, ainsi que sur un bagage historique, politique, et sociologique, propre à la société visée. L’objectif de leurs auteurs est de favoriser une désintégration progressive la confiance populaire envers les médias traditionnels mais aussi envers les institutions, afin de délégitimer toute décision de politique intérieure ou de politique internationale.

La stratégie intégrale : une approche politique

Les manipulations de l’information dirigées contre les démocraties ne sont pas de simples accidents informationnels. Les travaux de VIGINUM ont d’ailleurs révélé que ces dernières ne sont souvent que l’émanation tactique de campagnes plus larges, coordonnées, ayant des effets à plusieurs niveaux (politique, stratégique, opératif). Si les crises constituent des fenêtres d’opportunité pour ces opérations, en faisant le nid de l’incertitude et de l’émotion, ces dernières sont en fait caractéristiques d’un mode de conflictualité permanent, entre compétition, contestation et affrontements.

Face à cette permanence, il serait juste de considérer qu’à des « réponses », par nature réactives et limitées dans le temps, devrait se substituer une « posture permanente » de résilience au sein des démocraties libérales. En effet, les opérations informationnelles malveillantes visent la société dans son ensemble, en ciblant la confiance populaire dans les institutions et les médias, en exploitant les divisions sociales existantes, et en traversant les frontières juridiques et institutionnelles. Une réponse strictement militaire ou policière serait structurellement inadaptée en démocratie.

Comme le précise le récent rapport de la DITP (direction interministérielle de la transformation publique) réalisé à la demande de VIGINUM, les manipulations de l’information doivent être analysées comme un phénomène systémique, et dépasser une lecture simpliste jetant l’opprobre sur la seule responsabilité individuelle. Communication stratégique, équilibre informationnel pluraliste et transparent, éducation et formation aux pratiques informationnelles, sont autant d’outils à disposition des pouvoirs publics mais également de l’ensemble de la société civile, pour intégrer cette menace désormais systémique et lui confronter la résilience démocratique.  Cette approche holistique fut déjà théorisée par le général Lucien Poirier en 1987 sous la bannière de « stratégie intégrale », définie comme la « théorie et pratique de la manœuvre de l’ensemble des forces de toute nature, actuelle ou potentielle, résultant de l’activité nationale, [ayant] pour but d’accomplir l’ensemble des fins définies par la politique générale ». La « stratégie intégrale » repose ainsi sur l’idée que, face à des menaces hybrides visant la société dans son ensemble, la défense ne peut être ni sectorielle ni ponctuelle.

La Suède a par exemple actualisé dès 2015 la stratégie de « défense totale », héritée de la Guerre Froide, en la consacrant dans sa doctrine militaire. En tant que dispositif de sécurité et de défense mobilisant l’ensemble de la société, la défense totale s’appuie sur une large diversité d’acteurs : les forces armées, les agences gouvernementales nationales, les collectivités régionales et locales, le secteur privé, les organisations de la société civile et l’ensemble des citoyens. Cette posture de résilience multiscalaire est également adoptée par de nombreux pays baltes pour faire face aux opérations d’informations malveillantes, à travers l’adoption de nombreuses mesures à l’échelle nationale mais également en capitalisant sur l’intégration régionale.

Cette résilience se matérialise à plusieurs niveaux. A l’échelle individuelle, le développement de la « résistance cognitive », capacité à arbitrer entre nos deux systèmes de pensée et à dépasser les automatismes cognitifs induits par nos biais, se traduit par la force de l’esprit critique et par l’éducation aux pratiques informationnelles. Au niveau institutionnel, la résilience passe par la maîtrise de la communication stratégique en opérant les choix les plus appropriés, et en adaptant ses vecteurs, à l’image de la création du compte French Response sur X par le ministère des Affaires étrangères en août 2025.  L’approche suédoise précise qu’en plus de l’implication des pouvoirs publics, des médias, et des associations dédiées au fact-checking et à la sensibilisation, le citoyen devient un véritable acteur de la sécurité démocratique. Dans cette perspective, la résilience n’est pas une propriété individuelle, mais une qualité systémique : elle émerge de l’interaction entre institutions crédibles, médias professionnels, cadres normatifs clairs et citoyens capables de contextualiser l’information.

Dans ce cadre, la résilience sociétale devient un outil de dissuasion informationnelle en rendant les campagnes moins efficaces, voire plus coûteuses politiquement et symboliquement. L’objectif n’est pas de décourager l’attaquant par la peur d’une riposte dévastatrice, comme dans la dissuasion nucléaire, mais de lui ôter progressivement l’intérêt stratégique de poursuivre ses opérations. A l’inverse d’une menace cinétique, par exemple nucléaire, qui est massive, ponctuelle et immédiatement attribuable, l’influence informationnelle est graduée, diffuse, cumulative et plus difficile à caractériser. Elle se manifeste par une succession d’actes fragmentés, coordonnées et répartis dans le temps. C’est précisément cette absence de seuil qui oblige à penser la dissuasion non comme un choc ponctuel, mais comme un effet structurel produit par la continuité. Là où la dissuasion nucléaire se fonde sur la certitude de l’anéantissement, la dissuasion informationnelle repose sur l’incertitude de la réussite : l’adversaire renonce non par peur de la destruction, mais parce que ses attaques cessent d’être rentables. Contrairement à la dissuasion nucléaire, l’attribution – à savoir l’identification publique et officielle d’une attaque – dans le champ informationnel, n’est pas une exigence préalable mais un choix stratégique. Dans ce cadre, il est possible et parfois souhaitable de dissuader sans attribuer publiquement, pour se prémunir de tout risque d’escalade par exemple. La logique de représailles est elle aussi à questionner : une campagne informationnelle ne se neutralise pas comme un adversaire militaire dans le champ cinétique. Son taux d’efficacité diminue en l’exposant, en la délégitimant, ou encore en augmentant ses coûts diplomatiques.

Une approche intégrale et systémique, basée sur la dissuasion et la résilience, n’est efficace que si elle reste compatible avec l’État de droit, principe fondamental rappelé dans la nouvelle stratégie du SGDSN. Cela se traduit à la fois dans l’esprit de ses objectifs, en prescrivant toute action sur « le contenu des opinions », mais aussi dans la réponse au phénomène. En effet, une démocratie perdrait toute crédibilité si elle adoptait des méthodes de manipulation, de censure ou d’opacité, car elle détruirait alors la source même de sa force : la confiance. La meilleure dissuasion informationnelle, paradoxalement, n’a pas l’apparence d’une dissuasion. Elle se manifeste dans une société résiliente, dans des médias crédibles, dans des institutions légitimes, et dans une démocratie qui continue de fonctionner en préservant son pluralisme d’opinons.

Romane Thory, Analyste au sein de la Commission Influence et Lutte informationnelle l’INAS

L’INAS a pour mission de contribuer au débat public sur les questions stratégiques. Ses publications reflètent uniquement les opinions de leurs auteurs et ne constituent en aucune manière une position officielle de l’organisme.

Pour aller plus loin :

Ouvrages et thèses 

  • Auffret, Y., & Bruneteau, B. (Dirs.). (2019). Relations internationales et cyberespace, théories et acteurs asymétriques : Étude pragmatique de la sécurité de l’information par l’analyse de discours. Université de Rennes 1.
  • Cattaruzza, A., Danet, D., & Taillat, S. (2018). La cyberdéfense : Politique de l’espace numérique. Armand Colin.
  • Houde, O. (2022). Apprendre à résister. Champs essais.
  • Kahneman, D. (2013). Thinking, fast and slow. Farrar, Straus and Giroux.
  • Poirier, L. (1987). Stratagème théorique III. Economica.
 

Articles scientifiques / Etudes / revues académiques

  • Audinet, M., & Dreyfus, E. (2022). La Russie au Mali : une présence bicéphale (Étude 97). IRSEM.
  • Charon, P. (2025). Le Projet Fabulæ Mundi : Étudier les mises en récit du monde dans l’action extérieure des États. Fabulæ Mundi.
  • Chauvancy, R. (2022). Le political warfare ou la guerre par le milieu social. Revue Défense Nationale, 847, 81–86.
  • Debieve, C. (2025). Désinformation : quelles réalités ? Quels enjeux et quels défis ? Les Grands dossiers de Diplomatie, 87, 10–13.
  • Gault, G., & Medioni, D. (2022). Les Français et la fatigue informationnelle : Mutations et tensions dans notre rapport à l’information. Fondation Jean Jaurès.
  • Laruelle, M., & Limonier, K. (2021). Beyond “hybrid warfare”: A digital exploration of Russia’s entrepreneurs of influence. Post-Soviet Affairs, 37, 318–335.
 

Rapports, documents institutionnels et documents techniques

  • Assemblée nationale. (2025). Compte rendu de réunion n° 6 — Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs (17e législature, session 2024–2025).
  • Bengtsson, R. (2025). The Swedish total defence system. In Psychological defence and information influence (pp. 39–43). Psychological Defence Agency.
  • Charon, P., & Jeangène Vilmer, J.-B. (2021). Les opérations d’influence chinoises : Un moment machiavélien (2e éd.). IRSEM.
  • Commandement de la cyberdéfense. (2021). Éléments publics de doctrine militaire de lutte informatique d’influence. Ministère des Armées.
  • DITP & VIGINUM. (2025). Lutter efficacement contre les manipulations de l’information.
  • EEAS – Strategic Communication and Foresight (SG.STRAT). (2025). 3rd EEAS report on foreign information manipulation and interference threats: Exposing the architecture of FIMI operations.
  • Lindgren, J., Pamment, J., Palmer, A., Svetoka, S., & Lange-Ionatamišvili, E. (2026). Countering information influence operations in the Nordic-Baltic region. NATO StratCom Centre of Excellence.
  • Ministère des Armées. (2021). La vision stratégique du chef d’état-major des armées 2021.
  • SGDSN. (2026). Stratégie nationale de lutte contre les manipulations de l’information 2026–2030.
  • VIGINUM. (2024). UN-notorious BIG : Une campagne numérique de manipulation de l’information ciblant les DROM-COM et la Corse. SGDSN.
  • VIGINUM. (2025). Analyse du mode opératoire informationnel russe Storm 1516 (version 1.0). SGDSN.
  • VIGINUM. (2026). Définitions et objectifs du concept de “mode opératoire informationnel” (MOI) (version 1.0).
  • World Economic Forum. (2026). Global risks report 2026 : Geopolitical and economic risks rise in new age of competition. 
 

Articles de presse / médias

  • Bouin, A., & Lair, N. (2025, 11 novembre). Guerre en Ukraine : de fausses vidéos générées par IA prétendent montrer une reddition massive de soldats ukrainiens. Franceinfo.
  • Ngo Mayag, M. (2026, 26 janvier). Une vidéo d’Emmanuel Macron “prêt à la guerre” contre Trump ou Poutine ? C’est un montage. AFP Afrique.
  • Ouest-France. (2024, 1er mars). En France, la psychose des punaises de lit aurait été « amplifiée » par Moscou.
  • TV5 Monde. (2023, 22 janvier). Des dessins-animés russes, outils de propagande contre la France.