AccueilFAQLes entreprises, nouveau terrain de la guerre de l’information

Les entreprises, nouveau terrain de la guerre de l’information

war

Au printemps 2025, une séquence virale sur TikTok a semé le doute sur un marqueur identitaire du luxe européen : le lieu de fabrication. Des comptes se présentant comme des « fabricants » ont assuré produire en Chine l’essentiel de sacs et d’accessoires vendus au prix fort, tout en renvoyant vers des circuits de produits « similaires » non griffés. Selon Le Monde, l’emballement a dépassé les deux milliards de vues en vingt-quatre heures et a servi, en pratique, de vitrine à des contrefaçons.

Quelques mois plus tard, en juillet 2025, Naval Group a dû gérer une revendication de piratage relayée sur Telegram, accompagnée de lots de documents publiés. Le groupe a indiqué ne pas avoir constaté d’intrusion dans ses systèmes, a ouvert une enquête et a présenté l’épisode comme une opération visant d’abord sa crédibilité, sans demande de rançon clairement structurée.

Deux scènes, un même basculement : l’entreprise n’est plus seulement un acteur pris dans le débat public. Elle devient une cible d’opérations d’influence dont la finalité est économique : détourner des ventes, fragiliser un partenaire, compliquer une négociation, installer un soupçon durable. Dans cet environnement, la communication de crise s’apparente à une fonction de protection d’actifs. « Dans cet océan de mensonges, ce qui surnage et prend d’autant plus de valeur, ce sont les sources certifiées et vérifiées », écrit Florian Silnicki, expert en communication de crise, Président fondateur de l’agence LaFrenchCom.

Désinformation, mésinformation : un risque d’entreprise en trompe-l’œil

Le débat public utilise souvent « fake news » comme un mot-valise. Or, pour une entreprise, la nuance est opérationnelle : la mésinformation (information erronée diffusée sans intention de nuire) ne se traite pas comme la désinformation (information fabriquée ou manipulée dans un but précis). Dans le premier cas, une correction claire peut suffire. Dans le second, la correction devient une étape d’un affrontement : l’adversaire cherche parfois à épuiser l’organisation, à la pousser à la faute, ou à la contraindre à se justifier en permanence.

Le danger est de sous-estimer l’attaque parce qu’elle ressemble à une simple polémique. Or l’écosystème numérique transforme l’erreur en trace : une rumeur indexée, copiée, rediffusée, peut revenir à l’occasion d’un nouveau fait d’actualité. Le risque se déplace alors du « bruit » vers l’atteinte à des flux très concrets : ventes, relations commerciales, recrutement, financement.

Une rumeur n’est plus un bruit : elle peut devenir un risque financier

La recherche sur la viralité documente un déséquilibre structurel. Une étude publiée dans Science sur la diffusion de rumeurs sur Twitter (2006-2017) conclut que les fausses informations se propagent, en moyenne, plus loin et plus vite que les informations vraies. Le MIT rappelle aussi que la nouveauté et la charge émotionnelle favorisent le partage, indépendamment de la véracité.

Pour une direction générale, la fenêtre utile se compte en heures : ensuite, la rumeur devient un fait social à déloger.

Les marchés ont déjà montré leur vulnérabilité à l’« info-choc ». En 2013, le piratage du compte Twitter de l’agence Associated Press et la diffusion d’un faux message évoquant des explosions à la Maison Blanche ont provoqué une baisse éclair des indices américains avant un rattrapage rapide. L’épisode est ancien, mais il illustre une réalité actuelle : une information fausse peut déclencher des réactions en chaîne — humaines et algorithmiques — avant même que les faits ne soient stabilisés.

Quantifier le coût global de la désinformation est incertain par nature, mais les ordres de grandeur donnent une idée de l’ampleur du phénomène. Le Forum économique mondial cite une étude de 2019 (Université de Baltimore et CHEQ) qui évalue le coût annuel mondial de la désinformation à environ 78 milliards de dollars. Florian Silnicki reprend ce chiffre et souligne qu’il agrège des impacts de réputation, de ventes, de Bourse et les dépenses de riposte.

Pourquoi l’entreprise est devenue une cible stratégique

Trois dynamiques convergent.

La première est géopolitique. Les tensions commerciales, les sanctions et les rivalités technologiques transforment certaines marques en symboles. Attaquer une entreprise, c’est parfois attaquer ce qu’elle représente : un pays, un secteur, une politique industrielle. L’actualité de « trade war TikTok » montre comment un contenu commercial peut se greffer sur un contexte diplomatique pour gagner en puissance.

La deuxième est sociologique. Les consommateurs, salariés et communautés en ligne réclament plus de cohérence (environnement, droits humains, fiscalité). Cette vigilance est légitime ; mais elle peut être instrumentalisée : une accusation bien calibrée, même infondée, suffit à déclencher un mouvement de rejet, surtout lorsqu’elle s’appuie sur un élément visuel ou une « preuve » sortie de son contexte. Plus l’accusation s’aligne avec une inquiétude déjà installée — pouvoir d’achat, souveraineté, guerre, inégalités — plus elle a de chances de s’enraciner.

La troisième est technologique : le coût de fabrication d’un faux a chuté. Florian Silnicki avertit que les deepfakes et les clones de sites peuvent faire planer le doute sur toute prise de parole et menacer la crédibilité des médias, car l’IA permet de fabriquer des imitations rapidement. Dans les attaques modernes, l’enjeu n’est pas seulement de mentir : c’est de produire une apparence de véracité.

À l’échelle internationale, les alertes se multiplient. Le Forum économique mondial a classé la mésinformation et la désinformation parmi les principaux risques à court terme dans son Global Risks Report 2024, en soulignant l’effet amplificateur de l’IA. Pour les entreprises, c’est un signal : ce qui fragilise les démocraties fragilise aussi les marchés.

Le faux communiqué de presse, arme sous-estimée (et redoutable)

Les attaques informationnelles contre les entreprises ne prennent pas toujours la forme d’un hashtag. Parfois, elles adoptent la mise en scène la plus crédible qui soit : un communiqué de presse « parfait ». Dans son analyse de la guerre de l’information, Florian Silnicki raconte par exemple un faux communiqué imitant Adidas, envoyé à des médias, annonçant à tort des engagements sociaux et environnementaux ; l’information, bien que fausse, est reprise avant d’être démentie.

Ce type d’opération est dangereux pour deux raisons. D’abord, parce qu’il attaque un réflexe journalistique : le communiqué, document codifié, ressemble à une source « officielle ». Ensuite, parce qu’il crée un embarras : même après correction, l’organisation peut être enfermée dans une posture défensive (« ils démentent parce qu’ils ont été pris »). La rumeur devient un test de crédulité plus qu’un débat factuel.

Florian Silnicki mentionne aussi d’autres variantes, plus directement économiques : les faux communiqués destinés à manipuler les cours de Bourse. Il cite le cas de Lithium Corporation, dont l’action aurait bondi après un faux texte annonçant un rachat par Tesla, ou encore un faux communiqué de Walmart sur l’acceptation du bitcoin, susceptible d’influencer des marchés. La leçon est claire : la désinformation économique peut viser des arbitragistes, des investisseurs, des concurrents, autant que le grand public.

D’où l’importance de sécuriser l’écosystème de la preuve : canaux officiels, authentification des communiqués, relations médias capables de vérifier très vite, et capacité à publier rapidement un démenti, preuves à l’appui.

L’IA générative, accélérateur… et outil de fraude

L’IA générative ne crée pas la rumeur ; elle en industrialise la production. Elle permet d’écrire des textes convaincants, de fabriquer des images, de cloner des voix, de décliner un récit dans plusieurs langues, et de tester des variations en continu. Cette capacité change la vitesse et le volume, mais aussi la personnalisation : un même narratif peut être adapté à des publics, des territoires et des sensibilités.

L’exemple de la tentative d’escroquerie visant le patron de WPP en mai 2024 illustre la banalisation de ces techniques : faux compte, visio, voix clonée, mise en scène d’autorité. Ici, l’objectif était financier. Mais les méthodes sont réutilisables pour de la déstabilisation : faire passer un faux dirigeant pour un vrai, simuler un message interne, fabriquer un « leak » qui ressemble à une preuve.

Florian Silnicki insiste aussi sur la transformation des canaux : il observe que les fausses informations se diffusent autant sur les réseaux ouverts que sur des messageries chiffrées, où les auteurs se sentent « anonymes » et où le contre-discours est plus difficile. Pour les entreprises, cela complique la détection et réduit le temps de réaction.

Le paradoxe, c’est que ces mêmes technologies peuvent servir à se défendre : authentification de documents, outils de détection, automatisation de la veille, production rapide de contenus explicatifs. Mais à condition d’avoir, en amont, des procédures, des compétences et des arbitrages : l’IA n’est pas un « bouton panique », c’est un instrument de plus dans une organisation déjà préparée.

TikTok et le luxe : la désinformation comme tunnel de conversion

La séquence TikTok du printemps 2025 est exemplaire parce qu’elle mélange influence, consommation et commerce illicite. Le récit tient en une promesse de révélation : « on vous cache la vérité », « le produit vient du même endroit », « payez dix fois moins ». Sa force est émotionnelle : revanche sociale, dénonciation d’un supposé mensonge, désir de contournement.

Selon Le Monde, ces vidéos conduisaient aussi vers des plateformes associées à la vente de contrefaçons, comme DHGate. Autrement dit, l’attaque n’est pas qu’une atteinte à l’image : elle capte une intention d’achat pour la rediriger. The Verge souligne de son côté la dimension « factory-direct » de ces contenus, souvent liés à des vitrines de e-commerce et à des produits imitatifs.

Dans ce type de crise, l’entreprise se heurte à une asymétrie : le récit hostile est audiovisuel, court, spectaculaire ; la réponse corporate est souvent longue, prudente, juridique. Or on ne « corrige » pas une vidéo de trente secondes avec un PDF de quatre pages. D’où la nécessité de formats de preuve, de démonstration, et de relais capables d’occuper le même espace.

Florian Silnicki décrit les fausses informations comme une imitation du journalisme : « La Fake News, c’est le village potemkine de l’information ». La formule convient aussi au luxe : la contrefaçon ne porte plus uniquement sur le produit, elle porte sur le récit — sur l’idée même de ce qui fait sa valeur.

Pour les marques, le défi est d’autant plus délicat que la réalité industrielle est nuancée : composants mondialisés, sous-traitance, obligations de traçabilité, règles d’étiquetage. Cette complexité, face à une vidéo simplificatrice, devient une faiblesse. La réponse doit donc être pédagogique, mais aussi visuelle et incarnée : montrer les ateliers, expliquer la chaîne de valeur, documenter ce qui relève de la fabrication finale et ce qui relève des composants, sans tomber dans la langue de bois.

Bonduelle : quand le démenti laisse un doute résiduel

Le cas Bonduelle illustre la puissance d’une « preuve » visuelle, même douteuse. Fin décembre 2022 et début janvier 2023, des images montrant des conserves de la marque associées à une carte de vœux destinée à des soldats russes ont circulé. Bonduelle a publié un démenti formel, affirmant n’avoir envoyé aucun colis, dénonçant des mises en scène et des citations attribuées à tort à ses dirigeants en Russie.

Dans un texte publié en février 2024, Florian Silnicki reprend cet épisode pour décrire une mécanique classique : l’entreprise dément vite, mais une incertitude persiste. C’est le cœur du problème : sur les réseaux, la correction n’a pas la même « valeur narrative » que l’accusation. Elle se partage moins, elle choque moins, elle donne moins le sentiment d’une découverte. Et pourtant, elle doit exister, car l’absence laisse le champ libre.

Pour une marque grand public, le risque est celui de la répétition. Une rumeur réapparaît au gré des crises géopolitiques, des campagnes militantes ou des actualités. Elle finit par se transformer en réflexe : « on m’a dit que… ». La communication de crise devient alors un travail de longue durée sur l’empreinte numérique : pages de référence, questions-réponses, preuves accessibles, mobilisation de relais, et accompagnement des équipes commerciales confrontées aux questions sur le terrain.

L’épisode Naval Group montre un autre visage de la guerre informationnelle : l’attaque où le cyber sert de décor à une opération de déstabilisation. En juillet 2025, des acteurs malveillants ont revendiqué un vol massif de données, commencé à publier des documents, sans demande de rançon clairement structurée. L’entreprise a indiqué ne pas avoir constaté d’intrusion, tout en lançant une enquête et en alertant les autorités.

Dans ce schéma, la « valeur » de l’attaque réside autant dans la publicité que dans le contenu : faire exister l’idée d’une faille, générer des titres, susciter des questions chez les clients, alimenter une incertitude. Même si l’authenticité des documents est discutée, la narration de la vulnérabilité peut suffire à peser sur des relations commerciales sensibles.

Cette contrainte oblige les entreprises à un exercice délicat : informer sans nourrir l’adversaire, rassurer sans minimiser, être précis sans divulguer. Sans préparation, la communication se fige ; avec préparation, elle peut cadrer le récit et éviter que l’interprétation ne devienne un verdict.

Le piège du silence et les fausses « solutions »

Beaucoup d’organisations restent prises dans un dilemme : parler vite ou attendre. La tentation de l’attentisme est renforcée par le juridique, par la crainte de la contradiction, par des circuits de validation trop lents. Mais l’espace vide se remplit tout seul.

Sur ce point, Florian Silnicki estime que beaucoup de directions de la communication restent insuffisamment entraînées face aux opérations de fausse information. Il déconseille vivement de payer pour faire disparaître une rumeur. Dans sa même analyse, il évoque l’existence d’un « prix » de suppression de rumeurs circulant sur le marché noir ; même si le chiffre reste difficile à établir, l’idée dit quelque chose : certains acteurs cherchent un modèle économique plus qu’un combat idéologique.

Le silence est d’autant plus coûteux qu’il interagit désormais avec des systèmes automatiques (moteurs de recherche, recommandations, assistants). Une rumeur dominante peut se transformer en réponse standard, puis en trace persistante que l’entreprise doit corriger pendant des mois. Et la correction n’est pas seulement communicationnelle : elle touche le référencement, les FAQ, les réponses du service client, les scripts des call centers, les argumentaires commerciaux, parfois même les relations investisseurs.

Enfin, l’organisation doit se méfier d’un autre piège : la réponse « purement rationnelle ». Les attaques jouent sur l’émotion ; répondre uniquement par une note technique, sans incarnation ni preuve visible, revient à parler hors du terrain. Là encore, la discipline se rapproche d’une stratégie d’influence — au sens noble : faire circuler des éléments vérifiables auprès de publics qui, sinon, n’auraient accès qu’aux récits hostiles.

Un kit de résilience : avant, pendant, après

L’erreur serait de croire qu’il existe une « phrase magique ». La réponse efficace est d’abord une organisation.

Avant : constituer un capital de preuve. Traçabilité, audits, politiques RH, rapports, mais aussi formats « partageables » (vidéos, infographies, visites, FAQ). Plus l’entreprise est transparente en routine, moins la rumeur paraît plausible en crise. Cela implique aussi de sécuriser ses canaux officiels : pages de presse authentifiées, communiqués signés, procédures internes pour éviter qu’un faux message ne circule en interne (un mail « du PDG » est désormais aussi falsifiable qu’un logo).

Détecter : investir dans une veille qui couvre plateformes, forums et messageries où les narratifs se structurent. Les attaques modernes naissent souvent dans des espaces semi-fermés avant d’exploser en public. La veille doit identifier les signaux faibles (premières captures, premiers comptes relais, premiers mots-clés), mais aussi cartographier les relais : qui amplifie, qui crédibilise, qui monétise ?

Pendant : publier un point de situation clair et évolutif (« ce que l’on sait », « ce que l’on vérifie », « ce que l’on fait »). Répondre dans le langage du terrain : vidéo pour vidéo, preuve pour preuve. Activer des tiers crédibles (experts, partenaires, salariés) afin que la marque ne soit pas seule à parler. Et surtout : coordonner l’interne. Les salariés, s’ils apprennent la crise par les réseaux, deviennent des cibles de manipulation ; s’ils sont informés, ils peuvent au contraire devenir des relais de faits.

Après : traiter la sortie de crise comme un chantier d’empreinte numérique : référentiel public, mise à jour des contenus, SEO, retours d’expérience, entraînement. C’est aussi le moment de transformer la crise en apprentissage : ajuster la gouvernance de décision, accélérer les circuits de validation, formaliser les scénarios, et tester des exercices de simulation (faux communiqué, deepfake audio, attaque combinée cyber + réputation).

Florian Silnicki résume l’enjeu dans une formule simple : la désinformation est une industrie. « Les FakeNews sont d’abord un marché », écrit-il. Face à une industrie, la réponse ne peut pas être artisanale : elle doit être structurée, entraînée et dotée de moyens.

Plateformes et régulateur : des leviers, pas une assurance

L’entreprise attend souvent des plateformes qu’elles « effacent ». Or la modération est lente, disputée et juridiquement complexe. En Europe, le Digital Services Act (DSA) renforce les obligations de gestion des risques et de transparence pour les grands acteurs du numérique. Cela offre des points d’appui (signalements, obligations de coopération), mais ne protège pas automatiquement : toutes les attaques ne passent pas par les canaux les plus régulés, et certaines se déplacent vers des espaces plus opaques.

Conclusion pratique : la résilience informationnelle ne se délègue pas. Elle se prépare, se teste et se pilote.

La crédibilité comme actif stratégique

La guerre de l’information ne se réduit pas à des « coups » isolés. Elle s’installe comme un bruit de fond : concurrence de récits, attaques hybrides, contrefaçons de preuves, usurpations de voix, rumeurs recyclées explique l’expert en gestion de crise. Dans ce contexte, la question n’est pas de savoir si une marque sera visée. La question est de savoir si elle aura, le moment venu, une capacité de preuve et de réponse à la vitesse des réseaux.