Actualités

L’intelligence artificielle transforme-t-elle la communication de crise ?

ia La question n’est plus théorique. L’intelligence artificielle est déjà entrée dans les dispositifs de communication, de veille, de relation aux publics et d’aide à la décision. L’OCDE souligne que l’IA générative peut améliorer l’efficacité de nombreuses fonctions, notamment la création de contenus, le service client, le résumé de textes, la traduction et certaines capacités de prévision, tandis que la PRSA recense déjà, dans les métiers de la communication, des usages liés au stakeholder mapping, au forecasting réputationnel, au monitoring, à la rédaction, à la traduction, aux visuels et aux chatbots. De son côté, le rapport 2025 du Scientific Advice Mechanism de l’Union européenne sur l’IA en gestion des urgences et des crises identifie des usages allant du filtrage et de la synthèse d’informations à la planification, au reporting et à la communication de crise. Mais répondre simplement “oui” serait encore insuffisant. Car l’IA ne transforme pas la communication de crise d’une seule manière. Elle ne change pas seulement la vitesse d’exécution. Elle modifie le rapport au temps, à la preuve, à l’écoute, à la personnalisation, à la responsabilité et, surtout, à la confiance. L’OMS/Europe rappelait en 2025 que l’IA peut aider les autorités à adapter les messages à des publics spécifiques, à écouter les préoccupations en temps réel et à mieux atteindre des populations multilingues ou insuffisamment servies, tout en soulignant simultanément les risques de biais, d’atteinte à la vie privée et d’aggravation des inégalités. Nous ne sommes donc pas face à un simple nouvel outil ; nous sommes face à une reconfiguration socio-technique de la communication de crise. La bonne formulation serait alors la suivante : l’IA transforme effectivement la communication de crise, mais elle ne la remplace pas. Elle la recompose. Elle déplace certaines tâches vers l’automatisation ou l’augmentation, tout en rendant plus centrale la part proprement humaine du métier : l’arbitrage, l’empathie, la responsabilité, la capacité à dire l’incertain sans mentir, et à assumer publiquement les conséquences d’une décision. C’est pourquoi l’enjeu n’est plus seulement de savoir si l’on peut utiliser l’IA en crise, mais de déterminer quandpour quoi et sous quelle gouvernance il est légitime et prudent de l’utiliser.

Une transformation d’abord opérationnelle

La première transformation est d’ordre opérationnel. L’IA permet de traiter plus vite, à plus grande échelle, des volumes d’informations qu’aucune équipe humaine ne pourrait absorber seule dans les mêmes délais analyse l’expert en communication de crise Florian Silnicki, patron de LaFrenchCom, agence spécialisée en gestion de crise. Le rapport européen sur l’IA en gestion de crise insiste sur ce point : l’un des apports majeurs de l’IA est l’amélioration de la situational awareness, c’est-à-dire la capacité à percevoir, agréger et interpréter un environnement en évolution rapide. Le même rapport liste parmi les usages concrets l’alerte précoce, la surveillance en temps réel, l’évaluation des impacts, le filtrage et la synthèse d’informations en langage naturel, l’optimisation de ressources et la rédaction de situation reports avec des LLM. Cette logique concerne directement la communication de crise. Avant même la prise de parole officielle, des outils d’IA peuvent aider à détecter des signaux faibles, agréger des remontées terrain, analyser des mentions sociales, repérer des variations de tonalité, produire des résumés d’incidents, générer des FAQ provisoires, ou préparer des scénarios de réponse. La PRSA observe d’ailleurs que les communicants utilisent déjà l’IA pour la recherche d’audiences, les tests de messages, l’audit du sentiment, la création de rapports, le monitoring de l’actualité et des réseaux, ainsi que pour des tâches de traduction, de personnalisation et de production de contenus. L’intérêt principal est ici la compression du temps. En crise, quelques minutes ou quelques heures peuvent modifier l’interprétation publique d’un événement. L’OCDE rappelle que l’IA générative est particulièrement efficace pour les tâches bien définies de rédaction, d’édition, de résumé ou de traduction, et qu’elle peut améliorer à la fois la vitesse et parfois la qualité perçue des productions. Elle souligne cependant que les gains sont plus robustes lorsque l’IA agit comme complément du travail humain, et non comme substitut intégral. Autrement dit, l’IA transforme la communication de crise en lui donnant une capacité nouvelle de pré-traitement du réel. Elle aide à voir plus vite, à lire plus large, à résumer plus tôt, à reformuler plus simplement. Cela change déjà la pratique quotidienne des cellules de crise, car la communication ne dépend plus uniquement du temps humain de lecture, de tri et de rédaction. Elle peut être appuyée par des systèmes capables de fournir en quasi-temps réel des synthèses, des catégorisations ou des premières formulations. Mais cette accélération ne vaut que si elle reste adossée à une validation humaine solide.

Une transformation du rapport au public

La deuxième transformation concerne le rapport aux publics. L’IA permet désormais de personnaliser des messages, de les adapter linguistiquement, de répondre à grande échelle à des questions répétitives et d’ouvrir des interfaces conversationnelles continues. L’OMS/Europe note que les outils d’IA peuvent améliorer la portée et l’inclusivité de l’information, notamment dans les contextes multilingues, multiculturels ou insuffisamment couverts, et qu’ils peuvent aussi aider les autorités à écouter les préoccupations du public en temps réel. Le rapport scientifique européen ajoute que l’IA peut contribuer à la communication multilingue, à la visualisation, aux interfaces d’information et à l’adaptation des alertes par canal, timing et formulation. C’est un point décisif. La communication de crise n’est plus seulement descendante. Elle devient plus conversationnelle, plus réactive et potentiellement plus distribuée. Une organisation peut désormais s’appuyer sur des agents conversationnels pour orienter les usagers vers les bonnes ressources, clarifier des consignes, répondre 24h/24 à des questions simples, ou soulager les centres d’appel humains saturés. Ce déplacement ne supprime pas la nécessité d’un centre de gravité institutionnel, mais il permet d’étendre la présence de l’organisation à des milliers d’interactions simultanées. La recherche récente suggère toutefois que cette extension du front conversationnel n’est pas neutre. Une étude publiée en 2025 sur les chatbots de crise montre que les réactions des publics dépendent du type d’information délivrée et de la compétence perçue du chatbot. Lorsque l’organisation ne satisfait pas une demande, des chatbots délivrant une information d’instruction peuvent susciter davantage de satisfaction et moins d’attribution de responsabilité ; lorsque la demande est satisfaite, des chatbots donnant une information d’ajustement peuvent être mieux reçus. Les auteurs concluent surtout qu’une intégration stratégique des chatbots et des agents humains est préférable à une logique de substitution pure. Ce résultat est important parce qu’il montre que l’IA ne doit pas être pensée seulement comme un canal économique ou scalable. Son efficacité dépend du contexte, du type de message, de l’attente du public et de la perception de compétence. En d’autres termes, l’IA transforme le rapport au public, mais sous condition : elle fonctionne mieux quand elle traite des demandes structurées, répétitives ou fortement procédurales. Elle est moins naturellement légitime lorsqu’il faut reconnaître une souffrance, arbitrer une incertitude morale, ou assumer une responsabilité.

Une transformation du contenu lui-même

La troisième transformation tient au fait que l’IA n’aide plus seulement à diffuser le message : elle peut aussi en produire la matière. Les outils génératifs peuvent rédiger des brouillons de communiqués, proposer des variantes selon les publics, résumer des documents, reformuler des messages techniques, créer des visuels, traduire des contenus, et même simuler des interactions complexes. La PRSA rappelle que les communicants utilisent déjà l’IA pour rédiger des press releases, des posts sociaux, des emails, des rapports, et qu’elle sert aussi à créer ou éditer des visuels, de l’animation et de la vidéo. De ce point de vue, l’IA transforme la communication de crise en la rendant partiellement co-écrite. Elle devient un partenaire de production. Cela peut améliorer la rapidité, la cohérence formelle, la capacité multilingue et la variation stylistique. L’OCDE souligne d’ailleurs que l’IA générative a un fort potentiel dans les tâches d’écriture, de résumé et de traduction, tout en rappelant que des erreurs significatives subsistent, ce qui exclut encore un déploiement totalement automatique sur des contenus complexes. Mais c’est justement ici que se loge une ambivalence majeure. Plus l’IA participe à la fabrication du message, plus se posent les questions d’authenticité, d’attribution et d’acceptabilité sociale. Une étude de 2025 sur les apologies de crise montre que les excuses attribuées à l’IA suscitent davantage d’émotions négatives et sont jugées moins sincères que celles attribuées à des humains. Un ton chaleureux peut atténuer cet effet, mais pas l’annuler complètement. Autrement dit, un message formellement correct ne produit pas automatiquement la même réception selon que les publics pensent qu’il émane d’une machine ou d’une personne. D’autres travaux conduisent à une conclusion plus nuancée. Une étude sur la confiance dans des messages gouvernementaux liés à une crise montre qu’une stratégie intégrant à la fois information d’instruction et registre de care suscite le plus haut niveau de confiance, et que la connaissance préalable de l’IA peut moduler positivement certaines réactions à des messages générés par IA dans des conditions de transparence. La leçon n’est donc pas “les publics refusent l’IA”, mais plutôt : ils l’acceptent sous certaines formes, sur certains registres, et à condition que le cadrage relationnel soit bien pensé.

Une nouvelle source de crise

L’IA transforme aussi la communication de crise parce qu’elle devient elle-même un facteur de crise. Les risques ne se situent plus seulement dans l’usage maladroit d’un outil ; ils naissent aussi du fait que l’IA produit de nouveaux objets de vulnérabilité : hallucinations, erreurs plausibles, biais, divulgation de données sensibles, contenus synthétiques, usurpation de voix ou d’images, manipulations visuelles, automatisations mal supervisées, ou encore crises de réputation par “spillover” sectoriel. L’OCDE souligne que l’IA générative pose des défis liés aux droits de propriété intellectuelle, aux biais, à la gouvernance des données, à la vie privée et à l’usage de contenus manipulés. NIST, avec son profil de gestion des risques pour l’IA générative, insiste sur la nécessité d’intégrer des considérations de confiance et de gestion des risques dans la conception, le développement, l’usage et l’évaluation de ces systèmes. Le monde réglementaire a lui aussi intégré ce basculement. La Commission européenne rappelle que l’AI Act impose des exigences de transparence pour certains systèmes interactifs ou génératifs, notamment les chatbots, les contenus générés artificiellement et les deepfakes, afin de répondre aux risques de manipulation, de fraude, d’usurpation et de désinformation. Elle précise également que les deployers de systèmes générant ou manipulant des images, des vidéos ou de l’audio constituant des deepfakes devront l’indiquer clairement, et que les textes générés ou manipulés par IA publiés pour informer le public sur des sujets d’intérêt général devront eux aussi être signalés. Ces obligations de l’article 50 deviennent applicables le 2 août 2026. Cette évolution a une conséquence directe pour la communication de crise. Toute organisation qui utilise l’IA dans des messages publics sensibles devra se poser la question de la traçabilité et de la disclosure. Une communication de crise ne sera plus seulement jugée sur ce qu’elle dit, mais aussi sur la manière dont elle a été produite. Le soupçon potentiel n’est plus seulement : “l’organisation ment-elle ?” Il devient aussi : “qui parle exactement ? une personne, un système, un contenu synthétique, une voix clonée, un texte généré puis validé, ou un message presque entièrement automatisé ?” La crise de confiance se déplace alors du contenu vers les conditions de son énonciation. Cette dimension est d’autant plus importante qu’une partie croissante des crises liées à l’IA peut déborder l’organisation qui les a initialement provoquées. Un article de 2025 sur les spillover crises liées à l’IA générative montre que des crises nées de l’usage de GenAI dans une organisation peuvent se propager à d’autres acteurs d’un même secteur et produire des dommages réputationnels plus larges. L’IA ne crée donc pas seulement des gains d’efficacité ; elle crée aussi des risques de contamination symbolique et sectorielle.

Une transformation du métier de communicant

Si l’IA transforme la communication de crise, elle transforme nécessairement aussi le métier. Le communicant ne peut plus être seulement un rédacteur, un media trainer ou un gestionnaire de porte-parolat. Il devient un gouverneur d’usages. Il doit savoir sélectionner les bons outils, auditer leurs sorties, poser des garde-fous, arbitrer entre vitesse et fiabilité, protéger les données, décider quand divulguer l’usage de l’IA, et maintenir un niveau de cohérence éthique suffisant pour ne pas dégrader la confiance qu’il est justement chargé de préserver. Les praticiens eux-mêmes identifient ces tensions. Une étude de 2025 fondée sur des entretiens avec 21 professionnels des relations publics met en avant trois dilemmes éthiques majeurs : la mésinformation et la désinformation, l’auteurialité et l’identité professionnelle, ainsi que l’accountability et la disclosure. Les auteurs soulignent aussi que les codes professionnels existants restent partiellement insuffisants face à la vitesse d’évolution des usages. La réponse normative s’organise. La PRSA, dans sa version 2025 de The Ethical Use of AI for Public Relations Practitioners, affirme explicitement que les professionnels des RP ne doivent plus être de simples utilisateurs prudents, mais des gouverneurs actifs de l’adoption de l’IA. Le document insiste sur la littératie de base, la protection des données, le maintien d’un “human gatekeeper”, la détection de la mésinformation, la transparence et le fait que la responsabilité appartient toujours à des personnes, pas à la machine. Sa formule est claire : “AI is not a peer with moral responsibility. Accountability belongs to people.” Cette logique rejoint les évolutions réglementaires européennes. La Commission précise que l’article 4 de l’AI Act impose déjà, depuis le 2 février 2025, aux fournisseurs et déployeurs de systèmes d’IA de prendre des mesures pour assurer un niveau suffisant de littératie en IA parmi leurs équipes et les personnes utilisant ces systèmes pour leur compte. Elle précise aussi, de manière très concrète, que si des salariés utilisent un outil comme ChatGPT pour rédiger des textes publicitaires ou traduire des contenus, ils doivent être informés des risques spécifiques, notamment les hallucinations. Cela signifie qu’en communication de crise, la question n’est plus simplement “peut-on utiliser l’IA ?” mais “l’organisation a-t-elle préparé ses équipes à l’utiliser de façon compétente, éthique et juridiquement soutenable ?” La maturité ne se mesure plus au nombre d’outils déployés, mais à la qualité de la gouvernance : politiques d’usage, choix des fournisseurs, contrôle humain, règles de confidentialité, procédures de disclosure, archivage des prompts, validation des sorties, gestion des incidents et retour d’expérience. L’OCDE, dans son brief de 2026 sur une fonction publique prête pour l’IA, insiste d’ailleurs sur la nécessité de construire des capacités internes, de former les agents et d’assurer conformité, accountability et gouvernance robuste.

Vers une communication de crise augmentée, non automatisée

La conclusion qui s’impose est moins spectaculaire que les promesses de rupture totale, mais plus juste : l’IA ne supprime pas la communication de crise humaine, elle la recentralise sur ce qui lui est proprement humain. Plus la machine prend en charge le tri, le résumé, la traduction, le monitoring, certaines simulations, certaines réponses standardisées ou certaines aides à la formulation, plus la valeur du communicant se déplace vers la décision, l’interprétation, la priorisation, la sensibilité au contexte, la responsabilité et l’incarnation. Le rapport scientifique européen sur l’IA en gestion de crise est très clair : l’objectif n’est pas la délégation totale, mais une forme d’hybrid intelligence. Il avertit qu’une sur-automatisation peut dégrader la vigilance, réduire la pensée critique et créer des problèmes de coordination. Il souligne également que le jugement humain reste essentiel pour détecter les dérives, arbitrer les conflits entre signaux, réviser les modèles mentaux et maintenir une supervision significative. En réalité, la communication de crise entre dans une phase où la vraie question n’est plus l’innovation, mais la gouvernabilité de l’innovation. Une organisation solide sera moins celle qui automatise le plus que celle qui sait exactement où l’automatisation aide, où elle fragilise, et où elle doit s’effacer devant la parole humaine. Les études expérimentales sur les chatbots, les messages de care et les apologies convergent vers cette idée : l’IA est utile dans les registres d’information structurée, de disponibilité, de rapidité et d’adaptation procédurale ; elle reste plus fragile sur les registres de sincérité, de réparation symbolique, de compassion perçue et de responsabilité morale. Oui, l’intelligence artificielle transforme la communication de crise. Elle la transforme opérationnellement, en accélérant la veille, la synthèse, la traduction, la personnalisation et certains échanges avec les publics. Elle la transforme relationnellement, en ouvrant des interfaces conversationnelles continues et plus inclusives. Elle la transforme symboliquement, parce qu’elle modifie la perception d’authenticité, de sincérité et d’origine des messages. Elle la transforme enfin politiquement et juridiquement, parce qu’elle crée de nouvelles obligations de transparence, de littératie, de traçabilité et de responsabilité. Mais cette transformation n’autorise pas à conclure que la communication de crise deviendrait une affaire de machines. Les sources les plus solides disent plutôt l’inverse : l’IA est utile, parfois très utile, mais à condition d’être encadrée, expliquée, auditée et tenue dans une architecture de décision humaine. L’avenir de la communication de crise n’est donc ni le rejet de l’IA ni sa délégation sans réserve. C’est une communication augmentée, où la machine aide à voir, trier, reformuler et répondre, tandis que les humains gardent la charge de juger, d’assumer et de répondre moralement de ce qui est dit. La vraie question, dès lors, n’est plus “l’IA transforme-t-elle la communication de crise ?” La réponse est clairement oui. La vraie question est plutôt : les organisations sauront-elles gouverner cette transformation avant que l’usage même de l’IA ne devienne, à son tour, la prochaine crise à communiquer ?