- Le péché originel : confondre “réponse” et “réaction”
- La fausse empathie : quand le “ton empathique” sonne comme une insulte
- Le lissage moral : quand l’IA “dépolitise” ce qui est profondément politique
- L’erreur factuelle “petite” qui devient énorme
- La sur-optimisation : “gagner la bataille des mots” et perdre la guerre de la confiance
- La confusion entre transparence et sur-explication
- Le “copier-coller” qui trahit : incohérences entre interne et externe
- Les “excuses parfaites” : l’aveu involontaire ou, au contraire, la négation toxique
- Les biais et le hors-sol : l’IA propose des réponses “standard” à des crises singulières
- La question des données : la crise comme fuite potentielle
- L’automatisation des réponses sur les réseaux : le naufrage assuré
- La simulation qui enferme : croire qu’on a prévu la crise parce qu’on l’a “modélisée”
- L’effet “langue de robot” : la défiance monte, même si le fond est correct
- Le décalage temporel : l’IA accélère le texte plus vite que l’organisation n’accélère l’action
- La panique du dirigeant : l’IA comme calmant… et comme accélérateur de mauvaises décisions
- L’IA face à la vérité : elle optimise le récit, pas la justice
- Alors, on fait quoi ? Un usage utile de l’IA sans l’effet boomerang
- L’IA n’est pas un extincteur, c’est un accélérateur
Il y a une scène devenue banale dans les organisations : au cœur d’un bad buzz, quelqu’un finit par dire « Mets ça dans ChatGPT ». On le dit comme on dirait « passe un coup de fil » ou « fais un PowerPoint ». L’IA devient le réflexe de vitesse, le raccourci de production. Et dans l’urgence, la vitesse ressemble à la maîtrise.
Sauf qu’en crise, aller vite ne signifie pas aller juste insiste l’expert en commuunication de crise Florian Silnicki, Président Fondateur de l’agence LaFrenchCom.
L’IA est formidable pour produire des textes plausibles, des brouillons plans, des projets de listes de réponses, des scénarios hypothétiques. Justement : elle produit du plausible. Or une crise n’est pas un exercice de plausibilité. C’est un moment où le réel s’impose et où chaque phrase a des conséquences humaines, juridiques, sociales. Dans ce contexte, l’IA peut devenir un amplificateur de problèmes non parce qu’elle “veut” mal faire, mais parce qu’elle ne sait pas ce qu’elle ne sait pas, parce qu’elle lisse les aspérités, parce qu’elle propose la solution la plus “moyenne” à un événement qui exige une posture singulière, et parce que ses utilisateurs, sous pression, lui demandent souvent de faire exactement ce qu’il ne faut pas faire : remplir les vides.
Voici comment, concrètement, l’IA peut aggraver une crise. Et pourquoi, dans les moments critiques, elle doit rester un outil encadré, jamais un pilote automatique.
Le péché originel : confondre “réponse” et “réaction”
La première tentation, quand l’alerte tombe, c’est de répondre tout de suite. La crise a horreur du vide : les réseaux s’en chargent. Et l’IA, elle, est une machine à combler les vides. On lui donne une situation incomplète, elle produit un texte complet. Elle comble les trous par du liant rhétorique.
C’est là que commence la pente dangereuse.
En crise, l’enjeu n’est pas de parler vite. C’est de parler vrai, utile et tenable dans la durée. Il vaut parfois mieux un message court, assumant l’incertitude (« Nous confirmons l’incident, nous sommes en train de vérifier les faits, prochaine mise à jour à telle heure ») qu’une déclaration longue et “bien écrite” qui prétend donner de la clarté alors qu’on n’a pas encore les faits.
L’IA pousse, par sa nature même, vers le texte “abouti”. Le texte qui sonne final. Le texte qui donne l’impression d’un contrôle. Et c’est précisément ce que le public déteste lorsqu’il perçoit que l’organisation ne maîtrise pas la situation. Une crise est un test de sincérité : un discours trop lisse, trop vite, est souvent interprété comme une stratégie, pas comme une information.
Angle mort classique : l’IA ne ressent pas le contexte émotionnel. Elle ne sait pas qu’une phrase “professionnelle” peut être jugée indécente si, au même moment, des personnes sont blessées, choquées, endeuillées.
La fausse empathie : quand le “ton empathique” sonne comme une insulte
Le public repère de mieux en mieux les messages écrits “comme il faut”. Les formulations standardisées (“Nous prenons la situation très au sérieux”, “Nous comprenons l’émotion”, “Nous restons engagés”) ont déjà mauvaise presse. Avec l’IA, ces tournures deviennent encore plus fréquentes, encore plus homogènes, encore plus interchangeables.
Or l’empathie n’est pas un style. C’est une relation.
Une phrase “empathique” peut être vécue comme une violence si elle arrive trop tôt, si elle est trop générique, si elle semble destinée à protéger l’organisation plutôt qu’à reconnaître la souffrance. Et l’IA a tendance à produire une empathie de surface : elle connaît les mots, pas la charge. Elle propose l’“airbag” lexical, pas la posture.
Dans une crise impliquant des victimes, des salariés en détresse, une communauté stigmatisée, une affaire de violences ou de discriminations, la moindre maladresse se paie immédiatement : captures d’écran, détournements, indignation. Et c’est logique : quand la douleur est réelle, le langage marketing est obscène.
Erreur typique générée par IA : trop d’adjectifs et pas assez d’actes.
« Nous sommes profondément attristés » sans dire ce qui est fait maintenant, concrètement, pour protéger, réparer, prendre en charge.
Pourquoi c’est explosif : parce que l’empathie n’est crédible que si elle est cohérente avec une action vérifiable.
Le lissage moral : quand l’IA “dépolitise” ce qui est profondément politique
Les crises contemporaines sont souvent liées à des sujets sensibles : discriminations, violences, sécurité, écologie, santé, données personnelles, relations avec des communautés, représentations. Ce sont des sujets où les mots ne sont jamais neutres, où le moindre cadrage raconte une vision du monde.
L’IA, entraînée à produire des réponses “acceptables”, a tendance à lisser : elle recherche le consensus, le compromis, la formule qui évite le conflit. Elle produit du langage neutre dans des situations où la neutralité est perçue comme une prise de position… en faveur du statu quo.
Dans certaines crises, refuser de nommer un problème (“racisme”, “sexisme”, “harcèlement”, “violences”) peut être interprété comme une minimisation. À l’inverse, nommer trop vite, sans faits, peut déclencher un risque juridique et une injustice envers des personnes. La ligne est fine. Elle exige une intelligence politique et morale du contexte.
L’IA ne “comprend” pas ce contexte. Elle peut suggérer un texte qui paraît équilibré, mais qui sera reçu comme lâche, flou, hors-sol. Ce n’est pas une faute stylistique. C’est une faute de lecture sociale.
L’erreur factuelle “petite” qui devient énorme
Une date, un chiffre, un lieu. En temps normal, une imprécision se corrige. En crise, elle devient une preuve de mensonge.
L’IA peut halluciner un fait, extrapoler, ou reformuler de façon trompeuse des informations incertaines. Et même si l’organisation “relit”, la pression, la fatigue, l’urgence augmentent la probabilité de laisser passer une erreur.
Une simple phrase — « Aucun employé n’a été blessé » — peut se transformer en scandale si, deux heures plus tard, une personne se révèle hospitalisée. Même si ce n’était pas intentionnel. Même si l’information n’était pas remontée. Le public ne voit pas le circuit interne. Il voit une contradiction. Et la contradiction est interprétée comme dissimulation.
Le piège spécifique de l’IA : elle donne confiance. Le texte est bien structuré, bien ponctué, “pro”. Cela peut anesthésier l’esprit critique : si c’est bien écrit, ça doit être vrai. Or non.
En crise, la règle devrait être : aucun fait sans source interne vérifiée. L’IA doit travailler sur des éléments validés, pas sur des récits.
La sur-optimisation : “gagner la bataille des mots” et perdre la guerre de la confiance
Certaines organisations abordent la crise comme un duel de narration : il faudrait “reprendre la main” sur le récit, imposer des éléments de langage, dominer le cycle médiatique. L’IA est une arme idéale pour cela : elle produit des “angles”, des narratifs, des punchlines, des réponses aux attaques.
Mais cette logique est dangereuse, parce qu’elle peut déplacer l’attention vers le storytelling au moment où le public attend une réponse au réel : sécurité, justice, réparation, responsabilité.
Quand une entreprise sort une déclaration parfaitement construite alors que les victimes n’ont pas été contactées, que les salariés n’ont pas d’informations, que le terrain est en souffrance, l’écart devient insupportable. Et la crise s’envenime.
En d’autres termes : l’IA peut aider à “bien communiquer”. Or, en crise, “bien communiquer” n’est pas forcément communiquer de manière persuasive. C’est communiquer de manière digne, utile, cohérente.
La confusion entre transparence et sur-explication
Autre piège : l’IA adore expliquer. Elle peut produire des paragraphes très pédagogiques, très complets, donnant l’impression de transparence. Mais plus on parle, plus on s’expose : contradictions, engagements involontaires, formulations ambiguës.
Parfois, la bonne pratique en crise est la sobriété. Dire ce qu’on sait, ce qu’on fait, ce qu’on ne sait pas, et quand on reviendra. Point. L’IA, elle, remplit. Elle ajoute des transitions, des justifications, des contextualisations.
Or les justifications sont souvent perçues comme des excuses. Et les excuses comme des dérobades.
Une phrase de trop peut être celle qui déclenche la tempête : un détail inutile, une comparaison maladroite, une explication technocratique. L’IA ne sait pas ce qui est “de trop”. Elle maximise le texte, pas l’impact.
Le “copier-coller” qui trahit : incohérences entre interne et externe
En crise, il y a toujours plusieurs publics : victimes, salariés, clients, autorités, médias, communautés locales, partenaires. Un message externe peut être catastrophique s’il est en décalage avec ce qui se dit en interne.
L’IA facilite la production de multiples versions… mais elle peut aussi accélérer la divergence. On demande un message LinkedIn, puis un message aux salariés, puis une FAQ. Et dans le flux, des incohérences apparaissent : un mot plus fort ici, plus faible là, un engagement absent ailleurs, une formulation qui semble contredire l’autre.
Ces incohérences deviennent des munitions. Elles alimentent l’idée que l’organisation manipule selon le public.
Une agence de crise (ou une direction structurée) impose une ligne unique, des éléments de langage cohérents, une hiérarchie des messages. L’IA, utilisée sans gouvernance, multiplie les textes donc les risques.
Les “excuses parfaites” : l’aveu involontaire ou, au contraire, la négation toxique
L’IA peut produire deux types de dangers opposés :
- L’aveu involontaire.
Une formulation trop directe (“Nous avons échoué”, “Nous sommes responsables”) peut avoir des implications juridiques. Parfois c’est moralement juste, parfois c’est prématuré, parfois c’est inexact. En crise, s’excuser est souvent nécessaire — mais s’excuser ne veut pas dire s’auto-incriminer à l’aveugle. - La négation toxique.
À l’inverse, l’IA peut aider à fabriquer une langue défensive : “selon nos informations”, “aucun élément ne permet d’affirmer”, “nous contestons”. Dans une crise où des personnes souffrent, cette langue peut être perçue comme une violence et déclencher une seconde crise : celle de l’indécence.
La question n’est pas : faut-il s’excuser ? La question est : que sait-on, que reconnaît-on, que fait-on, et comment le dit-on sans trahir le réel ?
Cela ne se résout pas par un prompt.
Les biais et le hors-sol : l’IA propose des réponses “standard” à des crises singulières
L’IA est excellente pour les situations typiques. Or la crise est presque toujours atypique : une combinaison spécifique de culture d’entreprise, d’historique, de personnes, de contexte local, de timing.
Une réponse “standard” peut être interprétée comme du mépris. Parce que le public sent que le message n’a pas été écrit pour lui, mais pour “gérer”.
C’est particulièrement vrai quand la crise touche une communauté précise : ville, région, groupe professionnel, minorité, patients, familles. Le niveau d’attente est celui d’un discours ancré : noms, lieux, réalité concrète, actions sur le terrain. L’IA propose souvent un discours “hors-sol” : global, propre, interchangeable.
En crise, l’interchangeable est l’ennemi.
La question des données : la crise comme fuite potentielle
On en parle moins, mais c’est un angle très concret : en crise, on manipule des informations sensibles. Dossiers RH, éléments médicaux, témoignages, rapports d’incident, données client, échanges juridiques.
Sous stress, des équipes peuvent copier-coller dans un outil d’IA des éléments qui ne devraient jamais sortir d’un cercle restreint. Même si l’outil est “sécurisé”, même si des règles existent, la crise est une usine à erreurs humaines.
La fuite peut être directe (mauvaise manipulation) ou indirecte (document partagé, capture d’écran, historique conservé, etc.). Et elle peut créer une crise dans la crise : violation de confidentialité, atteinte à la vie privée, non-respect d’obligations légales.
Une agence de crise apporte aussi cela : une discipline de l’information. Qui a accès à quoi. Comment on valide. Où on stocke. Quand on supprime. L’IA ne compense pas l’absence de gouvernance ; elle la rend plus dangereuse.
L’automatisation des réponses sur les réseaux : le naufrage assuré
Certaines organisations, prises dans une vague de commentaires, veulent “répondre à tout”. L’IA rend cela tentant : générer 200 réponses “calmes”, “polies”, “factuelles”.
C’est généralement une erreur.
Parce que la crise sur les réseaux n’est pas une somme de commentaires. C’est une dynamique. Répondre mécaniquement peut donner l’impression de robotiser la relation. Pire : certaines réponses peuvent tomber à côté, répondre trop froidement à une douleur, ou alimenter un conflit.
En crise, il faut choisir : à qui répondre, où, comment, avec quelle autorité. Il faut parfois épingler un message central, rediriger vers une FAQ, répondre à des influenceurs clés, corriger une fausse information précise, et surtout : éviter l’éparpillement.
L’IA est un moteur d’éparpillement si elle est utilisée comme arrosoir. Et l’éparpillement est la meilleure manière de perdre le contrôle.
La simulation qui enferme : croire qu’on a prévu la crise parce qu’on l’a “modélisée”
L’IA peut aider à simuler des scénarios : questions de journalistes, enchaînements possibles, listes de risques. Très utile. Mais il existe un danger psychologique : la simulation donne une illusion de préparation.
On croit qu’on est prêt parce qu’on a un document de 12 pages, une FAQ, des scripts. Et puis le réel arrive : un témoin inattendu, une vidéo, une plainte, une autorité qui s’en mêle, une information qui contredit tout.
L’IA produit des scénarios basés sur des patterns. Mais les crises marquantes sont souvent celles qui sortent des patterns. Et surtout, une crise n’est pas seulement informationnelle : elle est émotionnelle, relationnelle, politique.
Le risque : se reposer sur un dispositif “papier” et oublier l’essentiel — la capacité à décider, à écouter, à agir sur le terrain, à ajuster.
L’effet “langue de robot” : la défiance monte, même si le fond est correct
Même quand l’IA ne se trompe pas, elle peut nuire par la forme. Les publics deviennent sensibles à une certaine texture : phrases trop équilibrées, trop longues, trop symétriques, trop “corporate”. On sent la main de la machine, comme on sent un communiqué écrit par comité.
Dans une crise, la défiance est déjà élevée. Tout ce qui ressemble à une mise en scène déclenche une lecture cynique : “ils gèrent”. Et “ils gèrent” signifie, dans la tête de beaucoup : “ils se protègent”.
Un message de crise peut être sobre, humain, imparfait dans sa forme, tant qu’il est clair et assumé. L’IA, elle, pousse vers le lisse. Or le lisse, en crise, peut être un poison.
Le décalage temporel : l’IA accélère le texte plus vite que l’organisation n’accélère l’action
C’est peut-être le point le plus important : l’IA accélère la communication. Mais elle n’accélère pas la réalité opérationnelle.
Une organisation peut publier en 15 minutes une déclaration très bien tournée. Mais si, sur le terrain, personne n’a appelé les victimes, si le service client n’a pas de consignes, si les managers ne savent pas quoi dire, si l’usine n’est pas sécurisée, si le correctif produit n’est pas prêt, alors la communication devient une promesse vide.
Et une promesse vide aggrave la crise.
La communication de crise doit être synchronisée avec les actes. Une agence de crise passe une partie énorme de son temps à faire cette synchronisation : “Qu’est-ce que vous faites concrètement ? Quand ? Par qui ? Comment le prouver ?”
L’IA ne pose pas ces questions avec insistance. Elle produit le texte comme si l’action existait déjà. Elle écrit “nous avons pris des mesures” même si personne n’a encore décidé lesquelles. Et dans l’urgence, on finit par publier une phrase qui précède la réalité. Le public, lui, ne pardonne pas les phrases en avance.
La panique du dirigeant : l’IA comme calmant… et comme accélérateur de mauvaises décisions
En crise, les dirigeants sont soumis à une pression immense. Ils veulent une solution. Ils veulent une sortie. Ils veulent “éteindre”.
L’IA peut jouer un rôle de calmant : elle fournit rapidement un plan, un texte, une impression de contrôle. Mais ce calme peut être trompeur. Il peut pousser à décider trop vite, sur la base d’une stratégie de communication plutôt que d’une stratégie de résolution.
Une agence de crise est aussi là pour contenir la panique. Pour ralentir quand il le faut. Pour dire : “Non, on ne publie pas ça maintenant.” Pour imposer une vérification. Pour protéger l’organisation contre ses impulsions.
L’IA ne dit pas “non” avec autorité. Elle ne résiste pas. Elle ne prend pas la responsabilité du refus. Elle obéit à la demande même quand la demande est exactement celle qui va aggraver la crise.
L’IA face à la vérité : elle optimise le récit, pas la justice
Il y a un point que les organisations oublient parfois : une crise n’est pas seulement un problème de perception. C’est souvent un problème de justice.
Qui a souffert ? Qui a été lésé ? Qui doit être protégé ? Qui doit être réparé ? Qui doit être entendu ? Et qu’est-ce qui doit changer pour que cela ne se reproduise pas ?
L’IA est un outil de langage. Elle peut rendre le discours plus efficace. Mais elle ne produit pas la justice. Et si l’organisation utilise l’IA pour mieux “se défendre” sans traiter le fond, elle alimente une indignation d’un nouveau type : celle du cynisme technologique. L’idée que, face à la souffrance, on a choisi une machine pour “gérer la com”.
Dans une époque déjà traversée par la défiance envers les institutions, ce soupçon est un accélérateur de crise.
Alors, on fait quoi ? Un usage utile de l’IA sans l’effet boomerang
Le problème n’est pas l’IA. Le problème, c’est l’IA sans cadre, en crise, dans une organisation sous stress.
Voici des principes simples (et très concrets) pour éviter l’aggravation :
- Jamais de faits non vérifiés.
L’IA ne doit travailler qu’avec une base factuelle validée en interne. - Sobriété > perfection.
Mieux vaut un message court et vrai qu’un texte long et “beau”. - Empathie = actes + respect.
Toute phrase empathique doit être soutenue par une action concrète. - Une seule ligne, plusieurs déclinaisons.
On écrit une position centrale, puis on décline. Pas l’inverse. - Pas de robot sur les réseaux.
On sélectionne les réponses, on priorise, on humanise. - Données sensibles : interdiction de copier-coller.
En crise, on limite drastiquement ce qui entre dans des outils d’IA. - Validation humaine obligatoire, et pas “en diagonale”.
Relire en pensant : “Comment cela peut être mal interprété ?” - Synchroniser communication et opérationnel.
Si l’action n’existe pas, on ne l’écrit pas. - Préparer à froid, utiliser à chaud.
Le bon usage de l’IA se décide avant la crise, pas pendant. - Assumer l’humain.
La crise est une épreuve de responsabilité. On ne délègue pas la responsabilité à un outil.
L’IA n’est pas un extincteur, c’est un accélérateur
En crise, l’IA agit comme un accélérateur : elle accélère la production de mots, donc elle accélère aussi les erreurs, les incohérences, les maladresses. Elle rend plus facile ce qui est déjà tentant : publier trop tôt, lisser trop fort, se protéger trop vite.
Bien utilisée, elle peut aider : synthèses, veille, scénarios, premiers jets, structuration. Mais elle doit rester au service d’une stratégie humaine : celle qui priorise les victimes, la sécurité, la vérité, la cohérence, et l’action.
La crise n’est pas un problème de texte. C’est un problème de réalité, de responsabilité, de dignité.
Et c’est précisément là que l’IA, aussi puissante soit-elle, peut faire plus de mal que de bien si on lui demande de faire ce qu’elle fait le mieux : combler les vides. En crise, les vides ne se comblent pas avec des phrases. Ils se comblent avec des faits, des actes, et des humains capables de les assumer.