Actualités

Quand la crise devient algorithmique : visibilité, amplification et emballement numérique

dadzadza Pendant longtemps, la communication de crise a reposé sur une représentation relativement simple de l’espace public. Un événement survenait, les médias en assuraient la circulation, l’organisation répondait, et la bataille principale se jouait dans la qualité du message, le choix du porte-parole et le rythme des prises de parole. Ce modèle n’a pas totalement disparu, mais il a perdu son caractère central. Désormais, la crise ne se déploie plus seulement dans un espace médiatique ; elle se propage dans des environnements de recommandation, de hiérarchisation et de personnalisation. Le Reuters Institute relevait en 2025 une forte hausse de l’usage des réseaux sociaux pour s’informer, tandis qu’Ofcom constatait que 85 % des internautes britanniques disent être conscients que des algorithmes personnalisent ce qu’ils voient en ligne. En parallèle, l’Union européenne traite désormais explicitement les systèmes de recommandation comme un objet de risque, de transparence et d’intervention au titre du Digital Services Act. Ce basculement oblige à reformuler le problème. Une crise devient algorithmique non parce qu’un algorithme produirait à lui seul l’événement initial, mais parce qu’il participe de plus en plus à déterminer ce qui sera vu, dans quel ordre, par qui, avec quelle intensité émotionnelle et pendant combien de temps. L’incendie, la panne, la cyberattaque, l’accident, la polémique ou le conflit social restent des faits matériels, humains, organisationnels ou politiques. Mais leur existence publique est désormais filtrée par des systèmes qui classent, recommandent, amplifient et réinjectent certains contenus dans les flux d’attention. La communication de crise ne peut donc plus se limiter à produire un message exact ; elle doit apprendre à gouverner les conditions de circulation du message analyse l’expert en communication de crise Florian Silnicki, Président Fondateur de LaFrenchCom agence spécialisée en gestion de crise. Cette transformation est plus profonde qu’un simple “effet réseaux sociaux”. Elle signifie que la visibilité n’est plus un donné neutre. Elle est devenue une construction sociotechnique. Les plateformes ordonnent les contenus selon des logiques d’engagement, de personnalisation, de répétition et de pertinence calculée ; les publics, eux, réagissent, partagent, commentent, s’agrègent en communautés affectives ; les créateurs, témoins, salariés, influenceurs ou comptes militants participent à la mise en récit. La crise n’est plus seulement médiatisée : elle est calculée, distribuée et rehaussée par des architectures de recommandation. C’est ce qui explique à la fois sa vitesse, son instabilité et sa capacité d’emballement.

Des plateformes qui ne sont plus de simples canaux

Le premier changement à comprendre est que les plateformes ne sont plus de simples tuyaux de diffusion. Le DSA européen le reconnaît explicitement : les utilisateurs doivent pouvoir comprendre sur quelle base les contenus sont classés dans leurs flux, et les très grandes plateformes doivent offrir une option permettant de désactiver les recommandations personnalisées. Autrement dit, les institutions européennes ne considèrent plus le fil d’actualité comme un support neutre, mais comme une structure de visibilité ayant des effets propres. Cette reconnaissance juridique est décisive, car elle consacre une idée désormais centrale : ce que nous voyons en ligne dépend en partie d’un tri automatisé qui influence l’ordre, la saillance et la répétition des contenus. La conséquence pour la communication de crise est immédiate. Dans le modèle ancien, il suffisait en théorie d’émettre le bon message au bon moment à travers les bons médias. Dans le modèle actuel, cette logique ne suffit plus, car le message entre dans des environnements où sa diffusion effective dépend de mécanismes qui échappent largement à l’organisation. Un communiqué très exact peut rester relativement peu visible ; à l’inverse, une vidéo fragmentaire, un témoignage émotionnel ou une accusation partielle peuvent connaître une très forte circulation. La crise n’obéit donc plus à une simple logique d’information ; elle obéit à une logique de mise en avant. Ce phénomène est renforcé par l’évolution des usages informationnels. Le Reuters Institute souligne en 2025 que l’usage des réseaux sociaux pour l’actualité a fortement progressé et qu’un écosystème d’information alternatif, composé de personnalités et d’influenceurs, prend une place grandissante dans l’accès aux nouvelles. Pew montrait déjà en 2024 que, selon les plateformes, les usagers rencontrent l’actualité via des amis, des proches, des journalistes, des influenceurs ou des inconnus, ce qui signifie que le cadre de réception change d’une plateforme à l’autre. Une crise ne rencontre donc plus un “public” homogène, mais des publics distribués par des interfaces différentes, des usages différents et des hiérarchies de légitimité différentes. Il faut donc abandonner l’idée selon laquelle la crise se déploierait dans un seul espace public continu. Elle se déploie désormais dans une pluralité de flux. Le même événement peut apparaître sous la forme d’un clip émotionnel sur TikTok, d’un thread polémique sur X, d’un post de voisinage sur Facebook, d’une réaction d’expert sur YouTube, d’un débat de commentaires sur Instagram, et d’une alerte presse sur un site d’information. La communication de crise doit articuler ces scènes hétérogènes, sans croire qu’un message central suffira à les unifier spontanément.

Quand la visibilité devient un risque

Le caractère algorithmique de la crise n’est pas une simple métaphore. Les autorités de régulation elles-mêmes lient désormais les systèmes de recommandation à des risques systémiques. En octobre 2024, la Commission européenne a demandé à YouTube, Snapchat et TikTok des informations détaillées sur la conception de leurs systèmes de recommandation. Elle a précisé que les plateformes doivent évaluer et atténuer les risques liés à ces systèmes, notamment pour la santé mentale, la diffusion de contenus nuisibles, l’effet d’enfermement dans certains parcours de contenus, ainsi que les risques pour le débat civique, les processus électoraux et la protection des mineurs. La Commission indiquait également que ces systèmes pouvaient amplifier certains risques liés au discours public et à la circulation de contenus illégaux. Cette évolution change la manière de penser la communication de crise. Pendant longtemps, l’amplification d’une crise était attribuée aux médias, à la rumeur ou à la faiblesse de la réponse institutionnelle. Désormais, il faut intégrer une couche supplémentaire : l’architecture de recommandation elle-même. Une plateforme peut favoriser la répétition d’un contenu émotionnellement chargé, pousser un sujet dans des zones d’audience qui n’étaient pas initialement concernées, ou accroître la visibilité d’un contenu conflictuel parce qu’il génère davantage d’interactions. Cela ne signifie pas que les algorithmes “veulent” la crise ; cela signifie qu’ils peuvent augmenter mécaniquement certaines propriétés de circulation, en particulier l’intensité, la répétition et la polarisation. Cette logique est d’autant plus puissante qu’elle s’articule à des comportements humains bien connus. Les contenus de crise attirent l’attention parce qu’ils portent une charge émotionnelle forte, parce qu’ils concernent le risque, parce qu’ils offrent un récit simple à partager, et parce qu’ils donnent parfois le sentiment d’un accès direct au réel. Lorsque ces contenus rencontrent des systèmes optimisés pour la rétention, l’engagement et la recommandation personnalisée, l’emballement peut s’installer très vite. Le problème n’est donc plus seulement : “Que disent les gens ?” Il devient aussi : “Qu’est-ce que l’architecture du flux rend plus visible, plus partageable et plus persistant ?”

L’emballement numérique : émotion, répétition, contagion

L’un des apports les plus utiles des recherches récentes est de montrer que l’emballement numérique n’est pas seulement affaire de contenu initial, mais aussi de dynamique interactionnelle. Une étude de 2025 sur les chats de YouTube Live montre que les expressions émotionnelles sont jusqu’à quatre fois plus fortement déterminées par les interactions entre participants que par le contenu vidéo lui-même. Elle montre aussi que les émotions positives se propagent plus vite, tandis que les émotions négatives durent plus longtemps en mémoire interactionnelle. En clair, ce qui se passe dans les commentaires, réponses et micro-réactions peut compter davantage que le contenu d’origine pour intensifier l’atmosphère émotionnelle d’une séquence en ligne. Cette donnée est essentielle pour comprendre la crise contemporaine. Une vidéo de crise n’agit pas seulement par ce qu’elle montre ; elle agit par la conversation qu’elle déclenche, les émotions qu’elle autorise, les effets de meute qu’elle peut susciter et les boucles de validation qu’elle installe. L’emballement n’est donc pas le simple produit d’un “mauvais contenu viral”. Il est co-produit par les interactions des usagers, les mécanismes de recommandation et la structure temporelle du flux. C’est pourquoi une organisation peut parfois publier un message correct sans pour autant calmer la situation : si l’espace interactionnel reste saturé de signaux émotionnels, de colère mimétique ou de moralisation rapide, la crise continue de se développer sur un autre plan que celui du simple démenti. Les recherches sur TikTok en contexte de catastrophe confirment ce déplacement. Une étude consacrée aux contenus relatifs aux incendies de Maui montre que les publications axées sur les dégâts et l’impact du désastre concentraient la plus grande part de l’engagement total, tandis que les contenus classés comme relevant de la désinformation ou du “fake news” obtenaient, par publication, des niveaux d’engagement particulièrement élevés. La même étude indique que les contenus portant sur les réponses gouvernementales ou les efforts de secours suscitaient relativement moins d’engagement que les contenus émotionnellement forts, visuellement intenses ou centrés sur l’impact direct. Les publications diffusées pendant la phase aiguë de la catastrophe obtenaient aussi l’engagement le plus élevé, avant un reflux progressif de l’attention. Ce résultat a une portée théorique importante. Il suggère que, dans l’environnement algorithmique des plateformes courtes, la visibilité et l’engagement ne coïncident pas spontanément avec l’utilité publique. Ce qui protège le mieux n’est pas toujours ce qui circule le plus. Les contenus instructifs, procéduraux, administratifs ou institutionnels sont souvent moins favorisés par les logiques d’attention que les contenus incarnés, polarisants ou dramatiques. La crise devient alors algorithmique parce que la hiérarchie spontanée du flux ne correspond plus nécessairement à la hiérarchie des besoins collectifs.

Une amplification qui n’est pas seulement négative

Il serait pourtant simpliste de conclure que les algorithmes ne font qu’aggraver les crises. Les recherches récentes invitent à une analyse plus nuancée. Un article publié dans Information Processing & Management en 2026, fondé sur une expérimentation où la recommandation personnalisée est activée ou désactivée, montre qu’un bon ajustement entre technologie, tâche et contexte peut renforcer l’intention d’interagir avec les informations de crise. Les auteurs concluent que les recommandations personnalisées jouent un rôle ambivalent : elles peuvent à la fois moduler la perception de la menace, l’expérience algorithmique et la qualité de l’interaction informationnelle. En d’autres termes, l’algorithme n’est pas condamné à produire du bruit ; il peut aussi, dans certaines conditions, améliorer l’efficacité de la circulation d’informations pertinentes. Cette nuance est importante pour la communication de crise. Le problème n’est pas l’existence même d’un tri algorithmique, mais les critères selon lesquels ce tri s’opère et les types de contenus qu’il privilégie. Lorsqu’un système fait remonter une information utile, localement pertinente, actualisée et facilement exploitable, il peut contribuer à réduire l’incertitude. Lorsqu’il privilégie surtout les contenus les plus clivants, les plus sensationnels ou les plus addictifs, il devient un facteur de désordre. La crise devient alors algorithmique dans un sens fort : le traitement de la visibilité devient une variable de sécurité, de confiance et de gouvernabilité. Le cadre européen du DSA reflète précisément cette bascule. La Commission rappelle non seulement que les grandes plateformes doivent offrir davantage de transparence et de contrôle sur ce qui apparaît dans les flux, mais aussi qu’en cas de risque sérieux pour les utilisateurs, des mesures provisoires peuvent porter directement sur les systèmes de recommandation ou sur le suivi renforcé de mots-clés et de hashtags. Elle précise également qu’elle peut demander l’accès aux données et aux algorithmes afin d’évaluer comment un système de recommandation promeut certains contenus. Le fait qu’un régulateur considère désormais les algorithmes comme une surface d’intervention de crise montre bien que l’amplification n’est plus pensée comme un simple effet externe.

Ce que cela change pour la communication de crise

La première conséquence est que la communication de crise doit cesser de raisonner uniquement en termes de message. Elle doit raisonner en termes de circulation. Il ne suffit plus de demander : “Quel est notre message clé ?” Il faut aussi se demander : “Sous quelle forme sera-t-il vu ? À quel moment ? Dans quel environnement de recommandation ? Avec quelles preuves visuelles ? Avec quelle possibilité d’actualisation ? Avec quel degré de reprise par des tiers ?” La crise algorithmique oblige à penser la matérialité de la diffusion autant que le contenu de l’énoncé. Concrètement, cela signifie que le premier temps de la crise n’est plus seulement celui du communiqué, mais celui de l’occupation des surfaces de visibilité. Une organisation doit très vite rendre disponible un point de référence stable : page dédiée, publication horodatée, visuel simple, séquence vidéo courte si nécessaire, mise à jour facilement repérable, version partageable par les équipes et les partenaires. Si elle ne le fait pas, l’espace sera rempli par d’autres contenus, souvent plus émotionnels que rigoureux. La priorité n’est donc pas de tout dire tout de suite ; elle est de fournir un point d’ancrage fiable dans le flux. La seconde conséquence est la nécessité de devenir une source de référence, et non plus seulement une source officielle. Dans un environnement algorithmique, l’officialité ne garantit plus automatiquement la visibilité ni la crédibilité. Ce qui compte, c’est la capacité à produire des contenus suffisamment clairs, réguliers, vérifiables et utiles pour que les publics, les journalistes, les relais et même les commentateurs hostiles soient contraints d’y revenir. La parole institutionnelle doit donc apprendre à être non seulement exacte, mais aussi repérable, partageable et continuellement mise à jour. Les recherches sur la communication gouvernementale sur TikTok vont dans ce sens. Une étude de 2025 montre que, lors d’une urgence de santé publique, la qualité de l’information et la rapidité du retour fait au public sont positivement associées à l’engagement, tandis que la confiance joue un rôle de médiation important. Autrement dit, les plateformes courtes ne condamnent pas les institutions à l’impuissance ; elles récompensent aussi, dans certaines conditions, la clarté, la réactivité et la qualité. Le problème n’est donc pas seulement la viralité émotionnelle ; c’est aussi la capacité des institutions à investir ces espaces sans perdre leur rigueur. La troisième conséquence concerne la forme même du message. Puisque les environnements algorithmiques favorisent souvent les contenus émotionnellement lisibles, les organisations ne peuvent plus communiquer comme si la neutralité de ton suffisait à produire l’attention. Cela ne signifie pas qu’il faille imiter le style des créateurs ou adopter les codes du sensationnalisme. Cela signifie qu’il faut rendre les messages humainement lisibles : nommer les impacts concrets, montrer le travail en cours, parler depuis le point de vue des personnes concernées, utiliser des formats adaptés aux plateformes, sans sacrifier la précision. Une parole juste mais glacée peut être battue par une parole imparfaite mais plus incarnée. La quatrième conséquence est l’effacement progressif de la frontière entre communication interne et externe. Les salariés, les managers, les partenaires et parfois les sous-traitants évoluent dans les mêmes flux que les autres publics. Ils voient les mêmes vidéos, les mêmes accusations, les mêmes commentaires. Une organisation qui laisse ses propres équipes découvrir la crise par l’algorithme plutôt que par ses propres canaux se condamne à une fragmentation rapide du récit. Dans une crise algorithmique, l’interne n’est jamais secondaire ; il est l’un des premiers terrains de stabilisation de la parole.

Les coûts du chaos algorithmique

L’enjeu n’est pas seulement réputationnel. L’OCDE rappelle que la désinformation peut mettre en doute les faits, compliquer la mise en œuvre des politiques publiques et miner la confiance dans les institutions. Dans un environnement de crise, ces effets deviennent immédiatement opérationnels : consignes moins suivies, mesures contestées, publics désorientés, attention détournée vers de faux objets, charge émotionnelle accrue, travail supplémentaire pour corriger des récits erronés. Quand la visibilité d’un contenu dépend en partie de sa capacité à générer des réactions, le chaos informationnel n’est plus un dommage collatéral ; il devient un facteur direct de vulnérabilité. La crise algorithmique a aussi un coût temporel. Les études sur les incendies de Maui montrent que l’attention est maximale dans la phase aiguë, puis décroît rapidement, y compris lorsque les besoins de réparation, de soutien ou d’information persistent. Cela signifie que les plateformes produisent souvent une forme de distorsion temporelle : elles intensifient l’instant chaud et dévaluent relativement le temps long du suivi, de l’explication et de la reconstruction. Pour les organisations, cette asymétrie est redoutable. Elles doivent faire beaucoup d’efforts de pédagogie et de continuité au moment même où l’architecture de l’attention rend ces efforts moins visibles. Enfin, l’emballement algorithmique accroît la pression sur les dirigeants et les communicants. Dans l’ancien modèle, une contradiction était certes coûteuse, mais elle se diffusait plus lentement. Dans le nouveau, elle peut être capturée, découpée, sortie de son contexte et recyclée indéfiniment. Une hésitation mal formulée, une assurance prématurée, une vidéo maladroite ou un décalage entre paroles et actes peuvent devenir des nœuds durables de la crise. L’environnement algorithmique ne pardonne pas plus difficilement ; il archive et recircule davantage. Il transforme ainsi la moindre faiblesse de cohérence en potentiel redémarrage de crise.

Sortir d’une vision naïve de l’algorithme

Il faut néanmoins éviter deux contresens. Le premier serait de tout attribuer aux algorithmes. Une crise n’explose pas parce qu’un système de recommandation l’aurait décidé abstraitement. Les rapports de force sociaux, les fautes réelles, la qualité de la réponse institutionnelle, l’état préalable de la confiance, la couverture journalistique et les dynamiques politiques continuent de compter. L’algorithme ne remplace ni le conflit ni la responsabilité ; il modifie leurs conditions de visibilité et d’intensification. Le second contresens serait d’adopter une posture fataliste. Le fait que la crise soit partiellement algorithmique ne signifie pas que la communication soit condamnée à l’impuissance. Les recherches sur l’engagement public en contexte de crise montrent au contraire que la qualité de l’information, l’immédiateté du retour, la cohérence visuelle et la continuité du suivi peuvent renforcer la confiance et l’engagement, y compris sur des plateformes très dynamiques. Le problème n’est donc pas d’entrer ou non dans ces espaces, mais d’y entrer avec une doctrine adaptée : une doctrine de visibilité, de preuve et de cadence. Quand la crise devient algorithmique, la communication de crise change de nature. Elle ne consiste plus seulement à produire un message fiable face à un événement critique ; elle consiste à rendre ce message gouvernable dans des environnements qui hiérarchisent l’attention selon leurs propres logiques. Les systèmes de recommandation, les flux personnalisés, les signaux d’engagement, les discussions entre pairs, les formats courts et la compétition émotionnelle transforment la manière dont la crise devient visible, dont elle s’amplifie et dont elle dure. Les recherches récentes comme les évolutions réglementaires européennes convergent : la visibilité numérique est désormais une variable stratégique de la crise, pas un simple décor technique. La leçon essentielle est la suivante : on ne peut plus communiquer en crise comme si le principal enjeu était seulement de “bien parler”. Il faut aussi bien circuler. Cela suppose de penser les plateformes comme des milieux de risque et de référence, de produire rapidement des points d’ancrage fiables, de maîtriser les formats courts sans céder au sensationnalisme, d’articuler preuve, rythme et lisibilité, et de comprendre que l’emballement numérique relève autant des interactions sociales que des contenus initiaux. La bonne communication de crise n’est donc plus seulement une communication de message ; elle devient une communication d’architecture, c’est-à-dire une pratique de gouvernement de la visibilité dans un espace public devenu partiellement algorithmique. La crise n’est pas créée par l’algorithme. Mais l’algorithme contribue désormais à dire ce qu’elle est, pour qui elle existe, à quelle vitesse elle monte, et avec quelle difficulté elle redescend. C’est pourquoi la communication de crise contemporaine doit apprendre à traiter non seulement l’événement, mais aussi le régime de circulation qui l’entoure. C’est là, désormais, l’une de ses tâches les plus décisives.