Actualités

Rapport Arcom 2026 : ce que la lutte contre la manipulation de l’information change pour la communication de crise

Sommaire

arcom

Publié en mars 2026, le rapport de l’Arcom sur la lutte contre la manipulation de l’information n’est pas un document administratif de plus. C’est un texte de référence, dense de 79 pages, qui examine les moyens mobilisés par les très grandes plateformes et les très grands moteurs de recherche pour protéger l’intégrité de leurs services. Il couvre un périmètre large Facebook, Instagram, Google Search, YouTube, Microsoft Bing, LinkedIn, X, TikTok, Snapchat et Wikipédia et s’inscrit dans le cadre du règlement sur les services numériques, le RSN ou DSA.

Son intérêt, pour la communication de crise, est décisif. Le rapport ne raisonne plus seulement en termes de “faux contenus” à corriger. Il déplace le regard vers les comportements coordonnés, l’exploitation des algorithmes, la publicité ciblée, la fraude à l’identité, les deepfakes, les faux signaux de popularité et les dévoiements des outils de modération. En d’autres termes, il montre qu’une crise informationnelle contemporaine relève autant de l’architecture de diffusion que du message lui-même analyse l’expert en communication de crise Florian Silnicki, Président Fondateur de LaFrenchCom, agence de gestion de crise.

Pourquoi le rapport Arcom 2026 est un texte majeur pour la communication de crise

Un rapport de référence sur les plateformes et le RSN

L’Arcom rappelle que ce bilan lui a été confié par le législateur français et qu’elle l’élabore comme coordinateur pour les services numériques en France. Le document repose sur plusieurs matériaux : les évaluations et mesures d’atténuation des risques systémiques publiées au titre du RSN en 2024 et 2025, les rapports d’audit, les rapports du code de conduite contre la désinformation publiés en 2025, ainsi que les clauses pertinentes des conditions générales d’utilisation des plateformes. Cette méthodologie est importante : elle signifie que le rapport ne se contente pas d’un commentaire politique, mais cherche à mettre en perspective les déclarations publiques des plateformes, leurs obligations juridiques et leurs outils opérationnels.

Le rapport intervient aussi à un moment de bascule réglementaire. L’Arcom rappelle que le code de conduite contre la désinformation, d’abord fondé sur l’autorégulation, a été renforcé puis intégré au RSN en 2025, ce qui rend opposables les engagements pris par les signataires. Le texte dessine ainsi une évolution nette : on passe d’une culture de la bonne volonté à une logique d’effectivité, de supervision et de responsabilité documentée. Pour un communicant de crise, cette bascule est essentielle, car elle signifie que la relation avec les plateformes devient moins informelle, plus procédurale et plus traçable.

Une nouvelle doctrine de l’intégrité informationnelle

La force du rapport tient à la doctrine qu’il stabilise. L’Arcom explique que la lutte contre la manipulation de l’information ne porte pas prioritairement sur la qualification d’un contenu pris isolément, mais sur la gestion de risques systémiques liés à des usages coordonnés ou inauthentiques de fonctionnalités légitimes. Elle insiste aussi sur une tension structurante : protéger l’intégrité des services sans porter une atteinte disproportionnée à la liberté d’expression et d’information. Le sujet n’est donc pas seulement la modération ; c’est la gouvernance de l’environnement informationnel.

Vu sous l’angle de la communication de crise, ce changement est considérable. Il oblige les organisations à quitter une posture purement éditoriale — répondre à une rumeur, publier un démenti, corriger un fait — pour adopter une posture d’anticipation systémique : surveiller les canaux, comprendre les modes d’amplification, sécuriser les identités numériques, tracer les sponsorisations et préparer la preuve d’authenticité de leurs contenus. Le rapport Arcom 2026 est, au fond, un manuel de lecture des crises réputationnelles à l’ère algorithmique.

Manipulation de l’information : le vrai changement de paradigme du rapport Arcom

Ne plus regarder seulement les contenus, mais les comportements

L’un des apports centraux du rapport est de distinguer clairement la désinformation de la manipulation de l’information. La première renvoie à des contenus faux ou trompeurs. La seconde vise en priorité les comportements coordonnés, clandestins ou inauthentiques qui permettent à ces contenus de circuler, d’apparaître légitimes ou de dominer l’espace public. Dans cette perspective, les tactiques, techniques et procédures — les TTPs — deviennent les véritables vecteurs de matérialisation du risque systémique, notamment en période électorale, lorsqu’ils peuvent affecter le discours civique, les processus démocratiques et la sécurité publique.

Cette approche est beaucoup plus pertinente pour les communicants de crise que la seule obsession du “vrai” et du “faux”. Une organisation peut être parfaitement exacte dans ses messages et pourtant perdre la bataille informationnelle si elle sous-estime les réseaux de faux comptes, les campagnes de harcèlement, les détournements de signalement ou les dynamiques de recommandation qui propulsent des récits hostiles. Le rapport consacre donc une idée simple, mais décisive : la vérité d’un message ne suffit plus si l’écosystème de diffusion est manipulé.

Faux comptes, deepfakes, data voids : la boîte à outils des acteurs malveillants

L’Arcom décrit d’abord la création de l’inauthenticité. Elle revient sur les comportements inauthentiques coordonnés, les faux comptes, les comptes fantômes, les publications massives et synchronisées, les copier-coller de contenus, les réactions automatiques, mais aussi la fabrication de groupes, de forums ou de pages donnant l’illusion d’une communauté légitime. Elle détaille également le typosquatting, c’est-à-dire la création de noms de domaine presque identiques à ceux d’une organisation légitime, et le détournement de compte, qui permet à un acteur malveillant de parler sous une identité crédible. Pour une cellule de crise, cela signifie qu’un faux consensus, un faux site miroir ou un compte compromis peuvent suffire à déclencher une séquence de défiance.

Le rapport insiste ensuite sur la diffusion et l’amplification. Il montre comment la publicité ciblée permet de segmenter les publics, d’exploiter leurs émotions et de viser plus particulièrement les groupes vulnérables. Il rappelle aussi que les modèles économiques des plateformes peuvent rendre la désinformation lucrative, soit par l’escroquerie directe, soit par la monétisation de l’attention. Dans la même logique, l’Arcom reprend le concept de “slopaganda”, ce bruit informationnel généré à grande échelle par des contenus de faible qualité produits par l’IA, afin de saturer l’espace public et d’affaiblir la vigilance des utilisateurs.

L’arsenal s’est encore enrichi avec les deepfakes, que le rapport qualifie de particulièrement dangereux en contexte électoral, car ils peuvent influencer le comportement des électeurs, ralentir le fact-checking et installer une défiance généralisée, jusqu’à faire “douter de tout”. L’exemple retenu est parlant : lors des élections fédérales allemandes de février 2025, l’opération Storm-1516, liée à des tentatives d’ingérence russe, a utilisé l’IA pour créer plus d’une centaine de sites relayant des deepfakes visant plusieurs responsables politiques. L’Arcom rappelle aussi le risque ancien mais toujours puissant du “hack and leak”, illustré par les Macron Leaks de 2017.

Le rapport ajoute des techniques moins visibles, mais redoutables en situation de crise. Les “data voids” consistent à occuper très vite un vide informationnel sur un mot-clé émergent afin que des contenus trompeurs deviennent la source par défaut des utilisateurs. La sponsorisation dissimulée par des influenceurs donne à un contenu rémunéré l’apparence d’une opinion spontanée. Quant au signalement massif et coordonné, il détourne les outils légitimes de modération pour saturer le système, ralentir le traitement des signalements légitimes et, parfois, faire supprimer des contenus pourtant licites. Aucune direction de la communication ne peut désormais considérer ces phénomènes comme marginaux.

Quels risques systémiques pour les réseaux sociaux, les moteurs de recherche et la démocratie ?

Discours civique, élections et sécurité publique

En étudiant les rapports de risques systémiques publiés par les plateformes en 2025, l’Arcom identifie un socle commun de menaces : désinformation électorale, détournements de comptes, phishing, activités inauthentiques coordonnées, ingérences étrangères, polarisation liée aux biais algorithmiques, deepfakes, ciblage de publics vulnérables, intimidation, harcèlement et fuites de données. La majorité des plateformes évaluent le risque inhérent sur le discours civique et les processus électoraux entre moyen et élevé, puis considèrent que leurs mesures le ramènent à un niveau résiduel faible. YouTube fait exception, en estimant que le risque résiduel demeure élevé. L’Arcom souligne toutefois qu’une comparaison rigoureuse reste difficile tant les méthodes d’évaluation diffèrent.

Les exemples sectoriels sont instructifs. Meta relève la persistance des opérations d’ingérence étrangère, des comportements inauthentiques et des abus de ses systèmes de sécurité et de signalement. Google, de son côté, pointe des pages conçues pour diffuser ou monétiser du contenu trompeur, des vidéos manipulées sur YouTube et des sites de faible qualité apparaissant dans les résultats de recherche. LinkedIn se juge moins exposé du fait de sa nature professionnelle, mais identifie tout de même la manipulation coordonnée, les chambres d’écho, le ciblage de groupes vulnérables et les biais de recommandation. Snapchat insiste sur les bulles informationnelles, tandis que Wikipédia met en avant la vulnérabilité propre à son modèle ouvert et collaboratif, où des campagnes coordonnées peuvent insérer du contenu trompeur dans l’encyclopédie.

Liberté d’expression : la régulation face à son propre risque

L’autre grand mérite du rapport est de ne jamais dissocier la lutte contre la manipulation de l’information de la question des libertés. L’Arcom rappelle que, pour la liberté d’expression et d’information, la majorité des plateformes identifient elles aussi un risque inhérent élevé, mais affirment qu’il devient faible après atténuation. Meta met en garde contre la sur-modération et contre les limitations linguistiques qui peuvent conduire à retirer des contenus légitimes. Bing relève le risque de sur-blocage, de déclassement disproportionné de certains contenus, d’atteinte au pluralisme et d’excès liés aux fonctionnalités fondées sur l’IA générative. TikTok, à l’inverse, apparaît plus elliptique sur ce terrain.

Pour la communication de crise, la leçon est claire : une réponse maladroite à la manipulation de l’information peut elle-même devenir une crise. Sur-réagir, demander des retraits imprécis, assimiler trop vite critique et manipulation, ou déléguer sans discernement à des systèmes automatisés peut nourrir une accusation de censure, d’opacité ou d’abus de pouvoir. Le rapport invite donc à une forme de maturité démocratique : lutter fermement contre les opérations inauthentiques, tout en acceptant que l’espace public numérique reste un lieu de conflictualité légitime.

Comment les grandes plateformes luttent contre la manipulation de l’information

Conditions d’utilisation, authentification et interdiction des engagements artificiels

L’Arcom montre que les grandes plateformes ont progressivement densifié leurs règles internes. Beaucoup interdisent la création, la vente ou l’échange de comptes, de groupes, d’interactions ou de privilèges administratifs ; la manipulation des indicateurs de popularité ; l’hameçonnage ; les logiciels malveillants ; ou encore la production massive de contenus sans valeur ajoutée. Dans son annexe, le rapport détaille par exemple les politiques de Meta sur les comportements non authentiques et le spam, ainsi que celles de X sur les médias manipulés, l’usurpation d’identité, les multiples comptes coordonnés et les spams d’engagement. Wikipédia, bien qu’ayant moins de règles formellement structurées, interdit aussi le vandalisme, les botnets non autorisés et plusieurs formes de tromperie communautaire.

Ces règles sont indispensables, mais elles n’ont de sens qu’à deux conditions : être compréhensibles et être appliquées. Or le rapport suggère en creux qu’il existe encore un écart entre la sophistication rédactionnelle des CGU et leur mise en œuvre effective. Pour un directeur de crise, cela signifie qu’il faut connaître les règles des plateformes non comme un décor juridique, mais comme un instrument opérationnel de signalement, de qualification et d’escalade. Les annexes de l’Arcom valent ici presque comme un guide tactique.

Intelligence artificielle, détection automatisée et modération proactive

Sur le terrain technologique, les plateformes ont considérablement investi. Meta décrit des mécanismes proactifs pour identifier de nouveaux schémas de comportements malveillants et détecter les réseaux qui tentent de réintégrer ses services après suppression. Google Search s’appuie sur des technologies d’IA avancées et sur son outil anti-spam SpamBrain pour retirer les pages frauduleuses et protéger l’intégrité des résultats. Pour les requêtes liées aux élections, Google utilise aussi des classificateurs dédiés afin de privilégier des informations récentes et faisant autorité. YouTube, lui, a développé un indicateur spécifique, le Violative View Rate, pour mesurer la visibilité de contenus préjudiciables avant leur retrait.

D’autres exemples rendent la mécanique très concrète. LinkedIn indique que ses défenses automatisées ont bloqué 97,1 % des faux comptes détectés entre juillet et décembre 2024, et que 99,7 % de ces faux comptes l’ont été de manière proactive, avant signalement par un membre. TikTok évoque des techniques de “dispersion” fondées sur l’apprentissage automatique pour éviter qu’un utilisateur ne voie en boucle des vidéos similaires sur des sujets sensibles. Snapchat recourt également à des procédures de modération proactive, notamment à partir de mots-clés.

Mais le rapport refuse toute fascination naïve pour l’automatisation. L’Arcom rappelle que les acteurs malveillants testent sans cesse de nouveaux contournements : usage détourné d’émojis, hashtags, langage codé ou menaces implicites. Elle cite aussi des travaux de chercheurs lettons de Providus montrant des manquements dans la réponse aux signalements sur plusieurs plateformes, parfois ignorés, parfois traités par de simples réponses automatiques. Le sous-texte est net : l’IA de détection est un pilier, pas une garantie.

Vérificateurs de faits, chercheurs et éducation numérique : la dimension humaine

Le rapport insiste avec raison sur le caractère irremplaçable des approches humaines et collaboratives. TikTok s’appuie sur des partenaires accrédités de vérification des faits et travaille en France avec l’AFP depuis 2020. Meta a institutionnalisé des partenariats européens avec des vérificateurs certifiés par l’European Fact-Checking Standards Network, tout en suscitant une inquiétude croissante après l’arrêt annoncé de ses programmes de fact-checking aux États-Unis en janvier 2025. Google conserve, quant à lui, ses Search Quality Raters, des évaluateurs humains chargés d’apprécier la qualité des résultats, même si leurs jugements n’agissent pas directement sur le classement. Le rapport souligne aussi l’intérêt de forums comme le Partnership on AI, de la norme C2PA pour la provenance des contenus et de la taskforce du code de conduite contre la désinformation.

L’effort éducatif est tout aussi central. TikTok affirme avoir atteint 80 millions d’utilisateurs dans le monde, dont plus de 9 millions en France, grâce à des ressources co-développées avec Mediawise et WITNESS pour aider à repérer les contenus générés par l’IA. Google a financé à hauteur de 10 millions de dollars la Fondation Raspberry Pi pour élargir l’accès au programme Experience AI. TikTok a en parallèle déployé une initiative d’un million de dollars avec Verified for Climate et des campagnes #ClimateAction ; mais l’Arcom note aussi qu’une enquête de Maldita.es et AI Forensics a mis en cause l’efficacité réelle de cette politique après les inondations de Valence. Sur le terrain électoral, Meta, TikTok, Snapchat, Microsoft et Google ont chacun développé des actions spécifiques de sensibilisation, d’accessibilité, de transparence et de signalement.

Les limites du dispositif actuel selon l’Arcom

Des données encore trop hétérogènes pour mesurer la menace

La critique la plus importante formulée par l’Arcom ne vise pas l’absence d’action, mais l’insuffisance de comparabilité. Le rapport regrette que les signataires du code ne fournissent pas de données chiffrées comparables sur la détection des techniques de manipulation. Il relève aussi que l’homogénéité apparente des niveaux de risque résiduel annoncés par les plateformes peut surprendre, tant leurs architectures, leurs usages, leurs modèles économiques et leurs publics diffèrent. Enfin, il insiste sur le manque de transparence concernant la conception et le fonctionnement des systèmes de recommandation, y compris lorsqu’ils reposent sur l’IA générative. Sans métriques homogènes ni visibilité suffisante sur les logiques algorithmiques, la mesure de la menace reste partielle.

Un cadre qui doit devenir plus prescriptif sans devenir liberticide

L’Arcom ne propose pas d’abandonner la corégulation. Elle estime au contraire qu’il faut préserver les structures de coopération mises en place par le code de conduite, notamment les espaces d’échange avec la Commission, les régulateurs nationaux, les plateformes, les industriels et la société civile, ainsi que des mécanismes comme le Rapid Response System en contexte électoral. Mais elle juge désormais nécessaire de franchir une étape : élaborer des lignes directrices plus structurées, plus prescriptives et plus précises sur la manipulation de l’information. Ces lignes devraient notamment actualiser la liste des TTPs, clarifier le statut des agents conversationnels d’IA intégrés aux plateformes, rendre réellement effective l’interdiction des faux comptes, accroître la transparence sur les systèmes de recommandation et mieux encadrer la monétisation de la désinformation. L’Arcom va jusqu’à inviter les pouvoirs publics à s’interroger sur le maintien de l’exemption conditionnelle de responsabilité pour certaines publicités diffusées à titre onéreux pour le compte de tiers.

Les 4 recommandations clés du rapport Arcom 2026

Recommandation 1 : rendre le RSN pleinement effectif

La première recommandation porte sur l’effectivité du RSN. L’Arcom demande une mise en œuvre rapide et harmonisée de la transparence publicitaire renforcée prévue par l’article 39 et de l’accès des chercheurs aux données, prévu par l’article 40. Elle plaide pour des lignes directrices sur les registres publicitaires, pour une meilleure articulation avec le règlement du 13 mars 2024 sur la transparence et le ciblage de la publicité politique, et pour des lignes directrices au titre de l’article 35 afin de consolider le cadre issu du code de conduite. L’objectif est limpide : réduire l’asymétrie d’information entre plateformes, chercheurs, société civile et régulateurs.

Recommandation 2 : financer durablement la recherche et le fact-checking

La deuxième recommandation est souvent sous-estimée alors qu’elle est fondamentale. L’Arcom explique que les chercheurs et les vérificateurs de faits sont indispensables pour identifier les contenus trompeurs, évaluer l’efficacité des mesures prises par les plateformes et documenter les phénomènes émergents. Elle cite en France le programme De Facto, branche française de l’EDMO, mais constate aussi les difficultés croissantes d’accès à des financements rapides et durables. Le rapport souligne qu’à l’approche de l’élection présidentielle de 2027, un soutien public stable devient indispensable. Autrement dit, il n’y a pas de résilience informationnelle à coût nul.

Recommandation 3 : créer un Observatoire permanent

La troisième recommandation vise la création d’un Observatoire sur la lutte contre les manipulations de l’information. L’Arcom propose d’institutionnaliser un cadre d’échange déjà expérimenté avant chaque élection depuis 2018 avec le SGDSN, plusieurs ministères, la Commission européenne, les plateformes et des acteurs de la société civile comme De Facto. L’enjeu est d’inscrire cet effort dans la durée, d’y associer davantage la recherche et de l’activer hors période électorale, notamment sur la santé ou l’environnement. Cette proposition est importante, car elle traduit une intuition juste : la manipulation de l’information n’est pas un accident électoral, mais une pression permanente sur l’espace public.

Recommandation 4 : élargir l’éducation aux médias à tous les publics

La quatrième recommandation appelle à renforcer et élargir l’éducation aux médias, à l’information et à la citoyenneté numérique hors du seul cadre scolaire. L’Arcom insiste sur la nécessité de toucher les adultes, les parents, les seniors et les publics plus isolés, en s’appuyant sur les collectivités territoriales et le tissu associatif local. Elle ajoute un point décisif : ces actions ne doivent pas se limiter aux seules ingérences étrangères, mais intégrer aussi les phénomènes domestiques de manipulation de l’information. C’est une manière forte de rappeler que la vulnérabilité informationnelle est une question sociale, territoriale et générationnelle autant que géopolitique.

Ce que les professionnels de la communication de crise doivent retenir du rapport Arcom

L’avant-crise informationnelle devient un terrain de veille prioritaire

Le premier enseignement pratique du rapport est le suivant : la crise commence bien avant sa visibilité médiatique. Elle peut commencer par un nom de domaine frauduleux, par un compte détourné, par un vide informationnel occupé dans l’heure, par une sponsorisation dissimulée, par une nuée de faux signalements ou par un réseau de comptes à activité synchronisée. Cela impose une veille plus large que la simple social listening traditionnelle. Il faut surveiller les indices faibles d’inauthenticité, les usurpations, les copies de contenus, les anomalies d’engagement et les mots-clés émergents avant que la conversation n’explose.

La réponse de crise doit être probante, transversale et documentée

Le deuxième enseignement est organisationnel. Répondre à la manipulation de l’information ne peut plus relever du seul service communication. Le rapport, en s’appuyant notamment sur le concept de “mode opératoire informationnel” développé par VIGINUM, montre qu’il faut articuler des compétences techniques, comportementales et contextuelles. Une organisation doit donc préparer des protocoles communs entre communication, cybersécurité, juridique, data, affaires publiques et relation plateformes. Elle doit aussi être capable de prouver l’authenticité de ses messages et de ses actifs numériques, ce qui donne tout son sens aux standards de provenance de type C2PA et aux procédures de conservation de preuve en cas de deepfake, de hack-and-leak ou d’usurpation.

La résilience informationnelle devient un enjeu de gouvernance

Enfin, le rapport Arcom 2026 rappelle que la résilience informationnelle n’est pas seulement un sujet externe. Elle concerne aussi les collaborateurs, les dirigeants, les porte-parole, les communautés de clients, les élus locaux, les partenaires et les publics les plus fragiles. Former les équipes à repérer un faux compte, à sécuriser leurs identifiants, à reconnaître un deepfake plausible ou à ne pas relayer un contenu hors contexte devient une mesure de continuité réputationnelle. En ce sens, l’éducation aux médias n’est plus une politique périphérique ; c’est une composante de la gouvernance du risque.

Le rapport Arcom 2026 marque un tournant parce qu’il formule clairement ce que beaucoup d’organisations avaient pressenti sans toujours le conceptualiser : la crise informationnelle moderne n’est pas seulement une bataille de récits, c’est une bataille d’intégrité. Ce qui est attaqué, ce n’est pas uniquement la véracité d’un message, mais la crédibilité des identités, la fiabilité des signaux de popularité, la transparence des sponsorisations, la robustesse des systèmes de recommandation et la capacité des citoyens à se repérer dans un espace saturé. En cela, ce rapport dépasse largement le commentaire réglementaire. Il fournit une grille de lecture précieuse pour toute stratégie de communication de crise sérieuse : anticiper les modes opératoires, documenter les preuves, travailler avec les plateformes, protéger les libertés et investir durablement dans la résilience collective.