- La crise, ce n’est pas “faire un communiqué de presse” : c’est gérer un moment humain extrême
- La sensibilité n’est pas un paramètre : c’est un rapport à la douleur
- Les enjeux ne sont pas symboliques : des vies, des carrières, des institutions
- Le cœur de la crise : décider avec une information incomplète
- La nuance culturelle et politique : le piège des “bonnes phrases” universelles
- Le non-verbal, la présence, le “moment” : ce que l’écran ne remplace pas
- La confiance se construit avant la crise, et se négocie pendant
- Le rôle du tiers : contenir, arbitrer, protéger… y compris contre soi-même
- L’éthique : ce que l’on peut dire, ce que l’on doit dire, ce que l’on choisit de faire
- Le droit n’est pas seulement un cadre : c’est une ligne de fracture
- La confidentialité : en crise, une fuite peut tout faire basculer
- L’erreur “statistique” devient une faute morale
- L’agence n’apporte pas que des mots : elle apporte un “dispositif”
- Le courage : l’élément le plus rare, et le plus humain
- Ce que l’IA fera (et fait déjà) très bien : l’assistant indispensable
- Le fantasme de remplacement : une erreur de catégorie
- Quand “bien communiquer” devient un risque : l’authenticité contre la perfection
- La responsabilité : au bout de la chaîne, il faut un nom, un visage, une signature
- Le futur : des agences augmentées, pas remplacées
Il est 3 h 17 du matin. Le téléphone sonne, pas celui qu’on garde pour la famille, mais celui qu’on espère ne jamais entendre vibrer. À l’autre bout du fil, une voix blanche : « On a un problème. C’est déjà sur les réseaux sociaux. Les journalistes appellent. On ne sait pas exactement ce qui s’est passé. » Dans une entreprise, ce moment a une odeur particulière : mélange de sueur froide, d’ego qui se crispe et de responsabilités qui se précisent. Ce n’est plus une question de “message”. C’est une question de personnes, de décisions, de blessures réelles, parfois de vies.
Depuis deux ans, l’intelligence artificielle s’invite dans les salles de réunion, propose des plans de communication en trois secondes, rédige des communiqués “parfaits” à la volée, analyse l’opinion en temps réel, anticipe les questions, simule des scénarios. Certains y voient déjà la fin des agences de communication de crise et la fin des agences de gestion de crise. Pourquoi payer des spécialistes si une machine peut pondre un texte plus vite, propre, calibré ? La tentation est forte, surtout quand on confond la communication de crise avec un exercice de style.
Mais la crise n’est pas un concours de rédaction. C’est un choc, un conflit d’intérêts, un enchevêtrement d’émotions, de droit, de politique, de réputation et de réalité opérationnelle. Et c’est précisément pour cela que l’IA ne remplacera jamais une agence de communication de crise. Elle l’assistera. Elle l’accélérera. Elle lui servira d’outil. Mais elle ne s’y substituera pas insiste l’expert en communication de crise Florian Silnicki qui dirige l’agence LaFrenchCom.
Parce qu’en crise, la technologie peut aider à produire des mots. Or, ce ne sont pas les mots qui sauvent. Ce sont les actes, les arbitrages, la capacité à tenir une ligne juste quand tout pousse à la fuite. Ce sont des humains qui parlent à d’autres humains, dans un monde où la confiance se gagne au prix fort — et se perd en une seconde.
La crise, ce n’est pas “faire un communiqué de presse” : c’est gérer un moment humain extrême
Dans l’imaginaire collectif, la communication de crise ressemble à une scène : un micro, un logo derrière, une phrase bien tournée, un porte-parole au ton grave. En réalité, ce moment public est la pointe visible d’un iceberg. En dessous : des heures de recoupements, de réunions tendues, de concessions parfois douloureuses entre la vérité disponible, la vérité à établir, les contraintes juridiques, les enjeux de sécurité, les exigences des régulateurs, la douleur des victimes, la pression des salariés, la violence des réseaux sociaux.
Une agence de crise ne vient pas “écrire”. Elle vient organiser le chaos. Elle vient créer une méthode quand l’organisation n’a plus de méthode. Elle vient cadrer les décisions et rappeler l’éthique quand l’instinct de survie voudrait tout maquiller. Elle vient servir d’amortisseur quand l’entreprise est en train de se fracturer.
L’IA, elle, n’a pas d’instinct moral. Elle n’a pas de responsabilité. Elle n’a pas de peau dans le jeu. Et elle n’a pas de présence.
La sensibilité n’est pas un paramètre : c’est un rapport à la douleur
Une crise, c’est souvent un drame à hauteur d’homme. Un accident industriel. Une agression syndicale. Une contamination sanitaire. Un scandale lié à une fraude interne. Une vidéo qui surgit et détruit une carrière. Un licenciement qui tourne mal. Une rumeur qui déclenche une vague de menaces. Derrière ces mots, il y a des familles, des collègues, des témoins, parfois des victimes.
Là où l’IA excelle à produire des formulations “empathiques”, l’humain, lui, sait quand le silence vaut mieux qu’un texte trop tôt. Il sait que certains mots, même “justes” sur le papier, peuvent sonner comme des gifles. Il sait que l’empathie n’est pas un décor rhétorique, mais une attitude cohérente : une présence, une écoute, un regard, un geste, parfois une larme retenue.
Un algorithme peut écrire : « Nous exprimons nos plus sincères condoléances. » Mais il ne sait pas ce que coûte cette phrase à prononcer en face d’une famille. Il ne sait pas ce que signifie aller sur le terrain, sentir l’ambiance, écouter la colère, accepter l’injustice ressentie. En crise, la sensibilité est une perception fine des êtres et des rapports de force. Ce n’est pas un “ton” réglable dans un menu déroulant.
Les enjeux ne sont pas symboliques : des vies, des carrières, des institutions
On parle souvent de réputation comme d’un capital abstrait. En crise, la réputation a des conséquences concrètes : une entreprise peut perdre ses clients, une ONG ses donateurs, un hôpital sa crédibilité, une ville son attractivité, une université sa confiance publique. Et derrière ces structures, il y a des emplois, des destins.
Dans certaines crises, l’enjeu est littéralement vital. Quand il y a un risque sanitaire, quand une infrastructure est touchée, quand une situation de violence se propage, la communication fait partie de la réponse opérationnelle. Dire trop tôt peut déclencher une panique. Dire trop tard peut exposer des personnes. Mal dire peut empêcher des populations de se protéger.
Une agence de crise sait que chaque minute peut compter. Pas seulement pour “l’image”, mais pour la sécurité, la coordination, la conformité, la prise en charge des victimes. Et elle sait aussi qu’il arrive qu’un dirigeant joue sa tête parfois à juste titre. Il faut alors un tiers solide, capable de dire non, de tenir un cap, de résister aux réflexes de défense.
L’IA, même la plus performante, n’a pas cette capacité de contradiction incarnée. Elle ne peut pas “tenir tête” à un PDG furieux en expliquant que la meilleure stratégie n’est pas la plus confortable mais la plus juste.
Le cœur de la crise : décider avec une information incomplète
Dans les films, la vérité arrive en bloc. Dans la vie, elle se reconstruit à petits morceaux, au milieu du bruit et des interprétations. En crise, les faits sont souvent flous, partiels, contradictoires. Les équipes techniques parlent une langue que la direction ne comprend pas toujours. Les juristes veulent verrouiller. Les opérationnels veulent agir. Les RH veulent protéger les salariés. Les communicants veulent éviter l’irréparable. Et les journalistes demandent : « Qu’est-ce qui s’est passé ? Qui est responsable ? Qu’est-ce que vous saviez ? »
Une agence de crise ne “génère” pas une réponse. Elle construit une position, un calendrier, un périmètre de parole. Elle organise l’obtention des faits, la validation, l’alignement interne. Elle aide à formuler ce que l’on sait, ce que l’on ne sait pas, ce que l’on fait, et quand on reviendra vers le public.
L’IA peut synthétiser des éléments. Mais elle n’est pas fiable, par nature, dans un contexte où les données sont mouvantes et où l’erreur se paie cher. Une seule affirmation fausse peut faire basculer une affaire — juridiquement, médiatiquement, moralement. Et en crise, l’incertitude est une donnée à assumer, pas un vide à combler par une phrase “qui sonne vrai”.
La nuance culturelle et politique : le piège des “bonnes phrases” universelles
Une crise n’existe jamais dans le vide. Elle se déroule dans un contexte social, culturel et politique particulier : une tension nationale, une mémoire collective, des lignes identitaires, des rapports historiques entre centre et périphérie, des fractures de classe, des sujets inflammables.
Une formulation acceptable dans un pays peut être explosive dans un autre. Un geste attendu par un public peut être perçu comme une provocation par un autre. Le niveau de tolérance à l’erreur, le rapport à l’autorité, la place de l’émotion dans l’espace public, tout cela varie.
L’agence de crise est un interprète. Elle lit la société. Elle connaît les sensibilités locales. Elle sait qu’un symbole peut valoir mille mots, et qu’un mot peut réveiller des blessures.
L’IA, elle, fonctionne sur des régularités statistiques. Elle a tendance à lisser les aspérités, à produire des réponses “moyennes”, très propres, très générales. Or la crise exige parfois l’inverse : un discours précis, ancré, courageux, qui reconnaît une spécificité, qui nomme un tort, qui s’adresse à des personnes réelles dans une situation réelle.
Le non-verbal, la présence, le “moment” : ce que l’écran ne remplace pas
Une conférence de presse n’est pas qu’un texte lu à haute voix. C’est une scène sociale. Les regards. Le souffle. La capacité à encaisser une question hostile sans devenir agressif. La maîtrise de la colère, de la peur, de l’orgueil. La cohérence entre la gravité affichée et la gravité perçue.
Un porte-parole peut perdre une bataille en un rictus, un soupir, une phrase trop vite lâchée. Une agence de crise prépare à cela. Elle entraîne. Elle observe. Elle corrige. Elle sait quand une personne ne doit pas être au micro. Elle sait quand il faut un expert technique plutôt qu’un dirigeant. Elle sait quand un silence vaut mieux qu’une phrase.
L’IA peut simuler des questions. Elle peut proposer des réponses. Mais elle ne peut pas faire exister la présence. Elle ne peut pas ressentir la salle. Elle ne peut pas évaluer, en temps réel, la température émotionnelle d’un public, ni ce que signifie “tenir” face à quelqu’un qui vient de perdre un proche, ou face à un élu qui menace, ou face à une rédaction qui a des éléments compromettants.
La confiance se construit avant la crise, et se négocie pendant
Les crises se gagnent rarement par un “coup”. Elles se traversent par une succession de gestes de confiance. Un appel à un journaliste pour clarifier. Une discussion avec un syndicat. Une coordination avec un préfet. Une interaction avec une autorité de contrôle. Une écoute d’association de victimes. Une rencontre avec des salariés choqués.
Une agence de crise dispose d’un capital relationnel, fait de crédibilité, de réputation, de connaissance des écosystèmes médiatiques et institutionnels. Elle sait qui appelle qui, à quel moment, pour quoi. Elle sait comment un média travaille, ce qu’un rédacteur en chef attend, comment une chaîne d’info peut s’emballer, comment une enquête se construit.
L’IA n’a pas de relations. Elle n’a pas d’historique partagé. Elle ne peut pas se racheter. Elle ne peut pas promettre et être tenue pour responsable de la promesse. En crise, ce qui compte, c’est la responsabilité — pas la plausibilité.
Le rôle du tiers : contenir, arbitrer, protéger… y compris contre soi-même
Une organisation en crise peut devenir son propre ennemi. Elle se replie. Elle se justifie. Elle nie. Elle attaque. Elle cherche un bouc émissaire. Elle s’accroche à une version “juridiquement safe” mais moralement désastreuse. Elle veut tout contrôler, alors que le contrôle a déjà été perdu.
L’agence de crise est un tiers. Elle apporte une distance. Elle dit : « Vous êtes en train de vous tromper de bataille. » Elle rappelle les conséquences humaines. Elle anticipe la réaction du public. Elle protège parfois un dirigeant contre ses instincts. Elle protège aussi des équipes internes, qui vivent la crise comme une tempête et dont la santé mentale peut être atteinte.
Ce rôle de “contenant” n’est pas une fonction technique. C’est un rôle psychologique et politique. L’IA ne fait pas tiers. Elle ne contient pas. Elle ne gère pas l’ego, la fatigue, la culpabilité, la panique. Elle ne repère pas, dans une phrase, l’aveu involontaire qui déclenchera une catastrophe médiatique. Elle ne perçoit pas le moment où il faut sortir de la salle et laisser un dirigeant respirer.
L’éthique : ce que l’on peut dire, ce que l’on doit dire, ce que l’on choisit de faire
La crise pose des questions morales. Pas dans l’abstrait, mais dans l’urgence.
Faut-il tout dire tout de suite, au risque de se tromper ? Faut-il attendre, au risque d’être accusé de dissimulation ? Faut-il s’excuser sans connaître toute la vérité ? Comment reconnaître une faute sans sacrifier un salarié injustement ? Comment parler d’un drame sans transformer les victimes en éléments de langage ? Comment ne pas instrumentaliser l’émotion ?
Une agence de crise de qualité travaille avec une boussole éthique : transparence graduée, respect des personnes, priorisation de la sécurité, reconnaissance du tort, engagement d’actions correctrices. Elle sait que le public pardonne plus facilement une erreur assumée qu’un mensonge sophistiqué. Elle sait que certaines stratégies “efficaces” à court terme sont destructrices à long terme.
L’IA, elle, optimise souvent pour la cohérence textuelle, le ton, la persuasion. Elle peut donc être dangereuse si on lui confie une tâche moralement chargée : elle peut proposer une formulation qui minimise, qui déresponsabilise, qui “passe” — et c’est précisément ce qui, dans une société hypersensible aux injustices, peut faire exploser la crise.
Le droit n’est pas seulement un cadre : c’est une ligne de fracture
En crise, le juridique et la communication sont intriqués. Un mot peut engager une responsabilité. Un aveu peut déclencher une procédure. Une promesse peut devenir contractuelle. Une information peut être couverte par le secret, ou au contraire obligatoirement divulguée. Une enquête interne peut être compromise par une communication maladroite. Un dossier peut devenir pénal.
Une agence de crise travaille main dans la main avec les juristes, mais elle sait aussi que l’obsession du risque légal peut produire un discours inhumain, froid, perçu comme méprisant. Elle aide à trouver la voie étroite : protéger l’organisation sans trahir l’exigence de vérité et de respect.
L’IA, en revanche, ne porte pas la responsabilité de ses conseils. Elle peut proposer des formulations qui semblent “prudentes” mais qui, en réalité, aggravent l’exposition, ou qui déclenchent une indignation morale. Et surtout, elle pose une question majeure : où vont les informations saisies ? Qui y a accès ? Comment garantir la confidentialité ?
La confidentialité : en crise, une fuite peut tout faire basculer
Une crise est une période où l’information est explosive : mails internes, rapports d’audit, témoignages, données personnelles, détails médicaux, éléments d’enquête, noms de victimes. Confier ces informations à des systèmes qui ne sont pas conçus pour des exigences extrêmes de secret, c’est ouvrir une brèche.
Même lorsque des solutions existent pour sécuriser l’usage de l’IA, le risque opérationnel est réel : erreur de manipulation, copie-coller malheureux, stockage non maîtrisé, réutilisation involontaire, ou tout simplement mauvaise compréhension des règles par un salarié pressé. La crise est le royaume de la précipitation. Et la précipitation est l’ennemie de la sécurité.
Une agence de crise, elle, a des protocoles, des circuits de validation, des règles d’accès. Elle sait instaurer une discipline de l’information. Elle peut imposer des routines : qui écrit, qui valide, qui envoie, à qui, quand. Elle sait que, dans certains cas, il vaut mieux un stylo et un téléphone qu’un outil brillant.
L’erreur “statistique” devient une faute morale
Dans la plupart des usages, une petite erreur de formulation n’a pas de conséquences graves. En crise, une erreur minime peut devenir une faute morale.
Confondre une date, un lieu, un nombre de blessés. Se tromper sur la qualification d’un acte. Employer un mot qui déshumanise. Suggérer, même involontairement, que la victime est responsable. Oublier un groupe concerné. Sous-estimer un symbole.
L’IA peut se tromper. Et même lorsqu’elle ne se trompe pas, elle peut produire des phrases qui semblent justes mais qui, dans le contexte, sont inacceptables. Parce qu’elle ne ressent pas la charge. Parce qu’elle ne connaît pas les non-dits. Parce qu’elle ne porte pas le deuil, la honte, la colère.
En crise, la communication n’est pas une optimisation. C’est un engagement. Et l’engagement ne se délègue pas à une machine.
L’agence n’apporte pas que des mots : elle apporte un “dispositif”
Une crise se gère avec un dispositif : cellule de crise, rôles clairs, points de situation, canal de décision, cartographie des parties prenantes, agenda de prises de parole, gestion des rumeurs, monitoring, FAQ interne, scripts de standard, coordination des réseaux sociaux, management des employés, préparation du terrain.
Une agence spécialisée apporte cette architecture et sait l’adapter au secteur, à la taille, à la maturité de l’organisation. Elle sait que chaque crise a son rythme : parfois il faut parler très vite, parfois il faut attendre d’avoir des faits. Parfois il faut un discours, parfois il faut une action visible. Parfois il faut un retrait humble, parfois il faut une fermeté.
L’IA peut aider à remplir des briques. Mais elle ne construit pas seule l’architecture. Et surtout, elle ne fait pas circuler l’autorité. Elle ne gère pas les frictions humaines. Elle ne réconcilie pas des équipes en conflit. Elle ne remplace pas une direction qui assume.
Le courage : l’élément le plus rare, et le plus humain
Il y a un moment, dans beaucoup de crises, où la solution est connue mais difficile : reconnaître une faute, démissionner, indemniser, coopérer, changer un processus, sacrifier un profit, suspendre une activité, admettre un angle mort.
Ce moment demande du courage. Pas celui qu’on affiche, celui qui coûte. Une agence de crise digne de ce nom pousse vers ce courage-là. Elle ne protège pas une image au détriment des victimes. Elle comprend que la communication n’est crédible que si elle est le prolongement d’actes.
L’IA peut suggérer des actions dans une liste. Mais elle ne peut pas faire franchir le pas. Elle ne peut pas porter la décision. Elle ne peut pas assumer le prix politique interne. Elle ne peut pas dire : « Vous devez le faire, même si vous allez perdre. »
Ce que l’IA fera (et fait déjà) très bien : l’assistant indispensable
Dire que l’IA ne remplacera pas une agence de crise ne signifie pas qu’elle est inutile. Au contraire. Dans un environnement où l’information circule à la vitesse du feu, elle peut devenir un outil précieux — à condition d’être encadrée.
Elle peut :
- Surveiller des volumes massifs de signaux (réseaux sociaux, presse en ligne, forums) et repérer des tendances émergentes.
- Synthétiser rapidement des articles, des questions récurrentes, des angles médiatiques.
- Aider à rédiger des versions de travail (communiqué, Q&A, messages internes), que des humains vérifieront, corrigeront et assumeront.
- Traduire et adapter des messages pour des audiences multilingues (toujours avec relecture).
- Simuler des questions difficiles pour entraîner des porte-parole.
- Organiser des plans, des checklists, des matrices de parties prenantes.
Bref, l’IA peut devenir une sorte de “bureau de nuit” qui accélère la production, améliore la cohérence, réduit la charge mentale. Elle peut libérer du temps pour ce qui ne s’automatise pas : l’écoute, la décision, la stratégie, la présence.
Mais justement : si elle libère du temps, c’est pour que l’humain fasse ce que la machine ne peut pas faire. Et ce que la crise exige, c’est d’abord de l’humain.
Le fantasme de remplacement : une erreur de catégorie
Si l’on pense qu’une agence de crise est une usine à communiqués, alors oui, l’IA peut donner l’illusion du remplacement. Elle écrira plus vite. Elle trouvera de meilleures tournures. Elle proposera des éléments de langage plus lisses.
Mais cette vision est une erreur de catégorie. Une agence de crise n’est pas un logiciel de rédaction. C’est une équipe qui intervient dans une zone de haute pression, avec une compétence rare : la capacité à orchestrer une réponse collective lorsque l’organisation est menacée, lorsque les émotions débordent, lorsque la vérité est incomplète, lorsque la société exige des comptes.
L’IA peut produire une phrase acceptable. Une agence de crise produit une trajectoire.
Quand “bien communiquer” devient un risque : l’authenticité contre la perfection
Il y a un paradoxe : plus les outils d’écriture deviennent performants, plus le public devient méfiant envers les discours trop parfaits. Une phrase trop “propre” peut sembler fabriquée. Une empathie trop calibrée peut sembler cynique. Un communiqué impeccable peut être interprété comme une stratégie, pas comme une vérité.
En crise, l’authenticité — la vraie — est une ressource. Elle ne se fabrique pas. Elle se prouve. Par des gestes. Par une cohérence. Par une capacité à dire : « Nous ne savons pas encore, mais nous cherchons. Voici ce que nous faisons. Voici quand nous reviendrons vers vous. » Ce langage-là est parfois moins spectaculaire, moins “convaincant”, mais il est plus solide.
L’IA peut aider à clarifier. Elle ne peut pas créer l’authenticité. Elle ne peut pas donner une âme à une organisation qui refuse d’assumer.
La responsabilité : au bout de la chaîne, il faut un nom, un visage, une signature
Une crise ne se résout pas dans un nuage de probabilités. Elle se résout dans un monde où des décisions engagent des responsabilités. Qui a décidé ? Qui savait ? Qui a laissé faire ? Qui protège qui ? Qui répare ?
Dans ce monde-là, l’IA n’a pas de place comme acteur principal, parce qu’elle ne peut pas être tenue pour responsable au sens humain, moral et social. On ne demande pas des comptes à un modèle statistique. On demande des comptes à des personnes et à des institutions.
Une agence de crise, elle, ne se contente pas de “conseiller”. Elle s’engage à côté de ses clients. Elle est comptable de sa méthode. Elle est jugée sur sa capacité à protéger les personnes, à éviter l’irréparable, à restaurer de la confiance. Elle met sa propre réputation en jeu. Elle porte un risque.
Cette dimension — le risque assumé — est précisément ce qui sépare l’outil de l’allié.
Le futur : des agences augmentées, pas remplacées
L’IA va changer la communication de crise, comme elle change déjà le journalisme, le droit, la médecine. Elle automatisera des tâches. Elle accélérera la veille. Elle rendra plus accessible une partie de la technique.
Mais plus les crises seront rapides, plus elles seront amplifiées par des réseaux saturés de contenus, plus la manipulation sera facile, plus les deepfakes brouilleront le vrai et le faux, plus la société sera polarisée — et plus le besoin d’humains compétents sera fort. Parce qu’il faudra vérifier. Arbitrer. Assumer. Être présent. Parler avec dignité. Décider avec courage.
Le vrai risque, ce n’est pas que l’IA remplace les agences. Le vrai risque, c’est que des organisations croient qu’une crise est un problème de texte et non un problème de réalité. Et qu’elles utilisent l’IA comme un vernis, au lieu de traiter la cause.
Une crise, c’est un moment où le réel frappe. L’IA peut aider à s’y orienter. Elle ne peut pas porter le choc. Et elle ne peut pas remplacer ceux dont le métier est, précisément, d’accompagner des humains quand tout vacille.
Parce qu’en crise, au bout du message, il y a toujours quelqu’un. Et que ce quelqu’un n’attend pas une phrase bien générée. Il attend une réponse juste. Une réponse incarnée. Une réponse responsable.