Accueil » Actualités » FAQ » Ce que l’intelligence artificielle ne remplacera pas : la prise de parole sous pression en communication de crise
Ce que l’intelligence artificielle ne remplacera pas : la prise de parole sous pression en communication de crise
- L’illusion d’une parole de crise automatisable
- Pourquoi la communication de crise ne se réduit jamais à un bon texte
- Au moment décisif, les médias veulent un responsable, pas un système
- Ce que le public juge vraiment dans une prise de parole sous pression
- La voix, le regard, le silence : tout ce que l’IA ne peut pas incarner
- La parole sous pression est une épreuve morale avant d’être une performance
- La tentation du dirigeant augmenté : utile en amont, dangereux au micro
- Les journalistes savent reconnaître une parole artificielle
- En communication de crise, la confiance se joue dans l’imperfection maîtrisée
- Ce que l’IA peut faire pour la prise de parole de crise, et ce qu’elle ne fera jamais
- Former les dirigeants à parler sous pression devient encore plus stratégique
- Dans la crise, la machine aide ; seul l’humain répond

L’illusion d’une parole de crise automatisable
L’intelligence artificielle impressionne par sa vitesse, sa capacité de synthèse, son talent pour reformuler, structurer, condenser, scénariser. Elle peut rédiger un communiqué en quelques secondes, proposer des éléments de langage, classer des signaux faibles, cartographier les risques réputationnels, simuler des questions hostiles et même suggérer plusieurs tons de réponse selon les publics. Dans beaucoup d’organisations, elle devient déjà un auxiliaire du quotidien. Et elle le sera davantage demain.
Mais une confusion dangereuse s’installe parfois. Parce qu’elle écrit vite, on en vient à croire qu’elle pourrait parler à la place. Parce qu’elle formule bien, on suppose qu’elle pourrait incarner. Parce qu’elle donne l’apparence de la maîtrise, on imagine qu’elle pourrait assumer le choc émotionnel, moral et symbolique d’une crise. Or c’est précisément là que se situe la limite majeure de l’automatisation. La communication de crise n’est pas seulement une production de contenus. C’est une épreuve de présence.
Quand survient un accident industriel, une cyberattaque, une affaire de harcèlement, un rappel produit, un conflit social, une contamination, une mise en cause judiciaire ou un drame humain, l’enjeu ne consiste pas seulement à diffuser une information correcte. Il s’agit de répondre à une angoisse collective, à une attente de vérité, à une demande de responsabilité. Et cette demande ne s’adresse pas à un algorithme. Elle s’adresse à un visage, à une voix, à un dirigeant, à un être humain identifiable. Au moment décisif, celui où les caméras s’allument et où les micros se tendent, le public ne juge pas un système. Il juge quelqu’un.
C’est pourquoi il faut affirmer avec netteté une idée simple : l’intelligence artificielle ne remplacera pas la prise de parole sous pression. Elle pourra l’accompagner, l’outiller, la préparer, parfois l’améliorer. Elle ne la substituera pas. Parce que dans la crise, ce qui compte n’est pas seulement ce qui est dit, mais qui le dit, comment il le dit, ce qu’il assume, ce qu’il risque, ce qu’il révèle de sa personne et de sa conception du pouvoir.
Pourquoi la communication de crise ne se réduit jamais à un bon texte
Le fantasme technologique consiste à croire que la qualité d’une parole dépend d’abord de sa formulation. C’est une erreur classique. En situation normale, un message bien écrit peut suffire. En situation de crise, il ne suffit jamais. Car le public n’évalue pas seulement un contenu verbal ; il évalue une cohérence globale entre les mots, le contexte, l’émotion, le statut de celui qui parle et la gravité des faits.
Une déclaration de crise n’est pas un texte neutre. C’est un acte. Elle engage celui qui la prononce. Elle produit des effets sur les victimes, sur les salariés, sur les partenaires, sur les autorités, sur les journalistes, sur les actionnaires et sur l’opinion. Elle peut apaiser ou aggraver. Elle peut restaurer la confiance ou détruire définitivement une crédibilité analyse l’expert en communication de crise Florian Silnicki, Président Fondateur de l’agence LaFrenchCom.
C’est là que l’intelligence artificielle rencontre sa frontière. Elle sait composer des phrases. Elle ne sait pas endosser les conséquences symboliques d’une parole. Elle peut suggérer : « Nous assumons nos responsabilités. » Mais elle n’assume rien. Elle peut proposer : « Nous pensons d’abord aux victimes. » Mais elle n’éprouve ni compassion ni obligation morale. Elle peut recommander : « Nous ferons toute la transparence. » Mais elle ne s’expose ni à la contradiction, ni au doute, ni au coût politique d’une telle promesse.
Dans une crise, le public n’attend pas seulement une phrase bien tournée. Il attend un engagement perceptible. Il cherche la trace d’une sincérité possible. Il observe si le locuteur comprend la gravité de ce qui arrive. Il écoute la voix, les silences, les hésitations, la manière de répondre à une relance embarrassante. Il tente de savoir si la personne en face parle pour protéger l’institution ou pour faire face à la réalité. Cette lecture fine, presque instinctive, ne peut être satisfaite par une perfection rédactionnelle désincarnée.
Au moment décisif, les médias veulent un responsable, pas un système
Les journalistes, dans une crise, remplissent une fonction démocratique essentielle. Ils ne recherchent pas simplement une information technique ; ils cherchent à identifier les responsabilités, les délais, les défaillances, les décisions prises ou non prises. Ils veulent des réponses opposables. Ils veulent pouvoir dire : qui savait, qui a décidé, qui assume, qui répare ? Aucune de ces questions n’appelle véritablement un interlocuteur artificiel.
Pourquoi ? Parce qu’une crise est toujours aussi une crise de responsabilité. Or la responsabilité est indissociablement humaine, institutionnelle et politique. Même dans les organisations les plus technologisées, les décisions critiques relèvent de personnes nommées, investies, hiérarchisées. On ne convoque pas un logiciel devant l’opinion. On ne tient pas un algorithme pour moralement comptable d’un silence, d’un retard, d’une négligence ou d’une faute d’appréciation. On demande des comptes à une direction.
C’est la raison pour laquelle, dans les grandes séquences de tension médiatique, la présence ou l’absence du dirigeant devient en elle-même un message. Un chef qui se dérobe aggrave souvent la crise. Un chef qui parle trop tôt sans rien savoir la complique également. Un chef qui parle juste, au bon moment, dans le bon registre, peut en revanche stopper l’hémorragie réputationnelle. Dans tous les cas, le dirigeant est évalué comme une personne. Son courage, sa lucidité, sa retenue, sa capacité de compassion, son sens du réel sont immédiatement mis à l’épreuve.
L’intelligence artificielle ne remplacera pas cette exposition. Elle peut préparer des scénarios de questions-réponses, analyser les angles médiatiques probables, cartographier les controverses émergentes. Mais lorsque la question tombe, brutale, précise, accusatrice, le public veut voir qui répond. La confiance ne se délègue pas totalement. Encore moins dans l’adversité.
Ce que le public juge vraiment dans une prise de parole sous pression
On se trompe souvent sur l’objet du jugement public. On imagine que l’opinion arbitre uniquement la véracité des faits ou la qualité argumentative du discours. En réalité, elle juge en même temps plusieurs dimensions.
D’abord, elle juge la présence. Un dirigeant présent donne le sentiment qu’il ne fuit pas. Cela ne le rend pas innocent, mais cela le place au contact de la réalité. Ensuite, elle juge l’alignement. Les mots correspondent-ils à la gravité de la situation ? Le ton est-il juste ? Y a-t-il un écart choquant entre le discours et le vécu des personnes touchées ? Puis elle juge la responsabilité. Le locuteur reconnaît-il sa part de devoir ? Cherche-t-il à gagner du temps, à noyer, à minimiser, à se défausser ? Enfin, elle juge l’humanité. Le dirigeant semble-t-il atteint, concerné, conscient des effets de la crise sur des vies réelles ?
Ce dernier point est décisif. Le public n’attend pas un effondrement émotionnel. Il n’attend pas non plus un spectacle de sensibilité. Il attend une humanité maîtrisée. Une émotion juste, c’est-à-dire ni théâtrale ni froide. Toute la difficulté est là. Une parole de crise réussie n’est ni une improvisation affective, ni une récitation juridique. C’est une parole tenue, qui montre qu’un être humain assume une charge, une pression, un devoir de vérité.
L’intelligence artificielle peut mimer cette tonalité. Elle peut reproduire les codes rhétoriques de la compassion, de la fermeté, de l’humilité. Mais le public, surtout en contexte de forte exposition médiatique, perçoit assez vite la différence entre une formule correcte et une implication authentique. Une phrase peut être parfaite et sonner faux. À l’inverse, une phrase imparfaite, prononcée avec vérité et sens de la situation, peut emporter davantage d’adhésion.
La voix, le regard, le silence : tout ce que l’IA ne peut pas incarner
Il faut ici revenir à une évidence anthropologique. La communication de crise n’est pas seulement du langage. C’est du corps. Le regard qui ne fuit pas. Le visage marqué. Le temps pris avant de répondre. Le silence après une question sur les victimes. La respiration coupée par la gravité du sujet. La posture qui dit la maîtrise sans arrogance. La main qui tremble légèrement mais tient la ligne. Toutes ces dimensions non verbales font partie du message.
Les professionnels des médias, les victimes, les salariés et les citoyens lisent ces indices avec une acuité particulière quand tout vacille. Ils n’analysent pas seulement ce qui est dit ; ils déchiffrent ce qui se manifeste. Est-ce du contrôle mécanique ? Est-ce de la sidération ? Est-ce une défense préparée ? Est-ce une parole habitée par la conscience du dommage ?
Cette lecture du non-verbal est parfois plus puissante que le contenu même de la déclaration. Un regard vide peut ruiner des mots impeccables. Une expression de gravité juste peut rendre recevable une réponse encore partielle. En crise, la crédibilité se joue dans cette alchimie fragile entre le verbe et l’incarnation.
Or aucune intelligence artificielle ne peut véritablement porter cette densité-là. Elle peut générer une vidéo synthétique, simuler une voix, produire un avatar apparemment convaincant. Mais précisément : plus la technologie imitera l’humain, plus la question de l’authenticité deviendra centrale. Dans un moment de peur ou de colère collective, la simulation n’apaisera pas. Elle inquiétera. Elle donnera le sentiment d’une fuite supplémentaire. Car quand la réalité blesse, l’opinion ne supporte pas d’être traitée par ersatz. Elle veut du réel face au réel.
La parole sous pression est une épreuve morale avant d’être une performance
La prise de parole en communication de crise est souvent présentée comme une compétence technique. C’est vrai, en partie. Il faut savoir structurer un message, répondre sans se perdre, ne pas spéculer, éviter les contradictions, hiérarchiser les informations, corriger sans s’enfermer. Tout cela s’apprend. Mais cette compétence technique ne suffit pas à expliquer pourquoi certaines interventions marquent durablement les esprits alors que d’autres échouent.
Ce qui fait la différence, au fond, c’est la dimension morale de la parole. Parler sous pression, c’est accepter de se présenter devant autrui quand on préférerait se retrancher. C’est consentir à être jugé. C’est reconnaître qu’une fonction dirigeante comporte non seulement un pouvoir de décision, mais aussi un devoir d’exposition. Ce devoir n’est pas confortable. Il est constitutif de la légitimité du chef.
Dans les moments de crise, la société rappelle aux dirigeants une vérité ancienne : commander, ce n’est pas seulement arbitrer dans le secret des bureaux ; c’est comparaître publiquement lorsque la situation l’exige. La parole de crise est donc un passage de responsabilité. Celui qui parle dit en substance : je suis là, je ne m’efface pas, j’entends la gravité, je prends la part qui me revient, je vous dois des réponses, même incomplètes à ce stade.
Aucune machine ne peut endosser cette comparution morale. Elle ne ressent pas le poids de la charge. Elle ne connaît ni honte, ni honneur, ni responsabilité, ni courage. Elle peut imiter le langage du devoir, mais pas le devoir lui-même. C’est pourquoi les organisations qui croiraient pouvoir substituer un dispositif technologique à la présence incarnée du dirigeant commettraient une erreur non seulement stratégique, mais anthropologique.
La tentation du dirigeant augmenté : utile en amont, dangereux au micro
Soyons clairs : il ne s’agit pas d’opposer bêtement l’humain et la technologie. L’intelligence artificielle a déjà une utilité majeure dans la préparation d’une communication de crise. Elle peut aider à détecter des signaux faibles, agréger l’information, produire des synthèses rapides, identifier les zones d’incompréhension, comparer les scénarios de formulation, anticiper des objections, tester la robustesse d’une trame de réponse. Elle peut faire gagner un temps précieux au moment où chaque minute compte.
Elle peut aussi jouer un rôle d’entraînement remarquable. Simulations d’interviews hostiles, reconstitution d’environnements médiatiques tendus, analyse de répétitions filmées, repérage des tics de langage, des réponses évasives, des longueurs inutiles : sur tous ces plans, l’outil est précieux. Un dirigeant mieux préparé grâce à l’IA sera souvent plus clair, plus stable et plus pertinent face aux médias.
Mais précisément parce qu’elle est utile en amont, la tentation existe de la laisser gouverner l’aval. Le risque est alors de produire des prises de parole lisses, standardisées, trop parfaitement calibrées. Or le discours de crise n’est pas un exercice de communication corporate ordinaire. Quand tout semble écrit d’avance, le soupçon surgit immédiatement. Le public se dit que l’on récite, que l’on protège la marque, que l’on gère la perception au lieu d’affronter le problème.
Le dirigeant augmenté est donc une bonne idée, à condition qu’il reste dirigeant. L’IA peut être un atelier, un miroir, un accélérateur. Elle ne doit pas devenir le ventriloque. Dès lors que le locuteur paraît téléguidé, la parole perd de sa force. En crise, l’excès de lissage est contre-productif. Il donne une impression de distance, parfois même d’indécence.
Les journalistes savent reconnaître une parole artificielle
Il ne faut jamais sous-estimer l’expérience des journalistes de crise. Ils entendent chaque année des centaines de déclarations préparées, polies, verrouillées, juridiquement relues, stratégiquement pesées. Ils savent repérer les éléments de langage, les précautions d’assurance, les phrases conçues pour ne rien concéder. Ils savent également sentir la différence entre une prudence justifiée et une fabrication trop visible.
Une parole artificielle se reconnaît à plusieurs signes. Elle répond sans vraiment répondre. Elle utilise des formulations impeccables mais abstraites. Elle parle beaucoup de procédures et peu des personnes. Elle contourne l’émotion au nom de la technique. Elle privilégie la réputation de l’organisation avant le vécu des publics touchés. Elle cherche la formule parfaite alors que la situation exige d’abord une attitude juste.
Plus la crise est grave, moins ce type de parole fonctionne. Dans une affaire douloureuse, des mots trop « propres » deviennent suspects. Ils suggèrent une mise à distance. Ils donnent le sentiment d’une communication de protection plus que d’une communication de vérité. Les journalistes vont alors relancer, pousser, décaler, confronter. Et c’est dans cet écart entre le script et la relance que l’on voit si le dirigeant pense vraiment ce qu’il dit.
Là encore, l’intelligence artificielle ne peut pas remplacer l’intelligence situationnelle du locuteur. Car la véritable difficulté n’est pas de prononcer un texte ; c’est de tenir dans l’interaction. Répondre à l’imprévu. Reprendre sans s’agacer. Reconnaître ce que l’on ne sait pas encore sans paraître fuir. Corriger une erreur de formulation avant qu’elle ne fasse explosion. L’entretien de crise est vivant. Donc irréductiblement humain.
En communication de crise, la confiance se joue dans l’imperfection maîtrisée
Les organisations cherchent souvent la maîtrise totale. C’est compréhensible. La crise fait peur ; on veut verrouiller, cadrer, sécuriser. Pourtant, la confiance ne naît pas d’une perfection absolue. Elle naît plus souvent d’une imperfection maîtrisée, c’est-à-dire d’une parole suffisamment préparée pour être solide, mais suffisamment humaine pour être crédible.
Un dirigeant qui marque un temps avant de répondre à une question difficile n’est pas forcément faible. Il montre qu’il mesure ce qu’il dit. Un dirigeant qui reconnaît qu’il ne dispose pas encore de tous les éléments n’est pas forcément incompétent. Il montre qu’il ne fabrique pas de certitudes. Un dirigeant qui reformule une question douloureuse avant d’y répondre manifeste parfois qu’il en saisit la charge humaine.
Cette imperfection maîtrisée est impossible à produire mécaniquement. Une machine cherche l’optimisation. Une parole humaine cherche la justesse. Ce n’est pas la même logique. Dans un univers saturé de contenus générés, la justesse deviendra d’ailleurs une valeur encore plus décisive. Plus les textes seront faciles à fabriquer, plus l’incarnation rare d’une parole tenue comptera.
Le paradoxe de l’époque est là. L’essor de l’intelligence artificielle ne diminue pas l’importance du dirigeant en crise ; il l’augmente. Parce que tout ce qui peut être automatisé perd en singularité, tandis que ce qui relève de la présence responsable gagne en valeur. Ce que l’on n’attendra plus d’un leader, ce n’est pas de produire seul des formulations impeccables. Ce que l’on attendra plus que jamais, c’est de savoir parler vrai quand la pression monte.
Ce que l’IA peut faire pour la prise de parole de crise, et ce qu’elle ne fera jamais
Il faut donc distinguer avec rigueur deux niveaux. Le premier est celui de l’assistance. À ce niveau, l’IA est excellente. Elle peut accélérer l’analyse, enrichir la préparation, élargir le champ des hypothèses, aider à éviter certaines erreurs grossières, soutenir le travail des équipes de communication, des juristes, des opérationnels et du cabinet du dirigeant.
Le second niveau est celui de la substitution. À ce niveau, l’IA bute sur l’essentiel. Elle ne porte ni la légitimité fonctionnelle du chef, ni la responsabilité institutionnelle, ni le coût moral de la parole. Elle ne peut pas demander pardon au sens fort. Elle ne peut pas assumer devant les victimes. Elle ne peut pas être regardée comme un représentant légitime de l’organisation dans l’épreuve.
On peut confier à une machine l’aide à la formulation ; on ne peut pas lui confier le fardeau symbolique de l’énonciation. Cette distinction est capitale pour l’avenir du leadership. Les dirigeants qui utiliseront bien l’intelligence artificielle seront ceux qui sauront s’en servir sans s’y abriter. Ceux qui s’y cacheront perdront en crédibilité. Ceux qui l’emploieront pour mieux affronter le réel gagneront en efficacité.
Autrement dit, l’IA sera un formidable instrument de préparation, mais elle ne sera jamais l’ultime garant de la confiance. Car la confiance, surtout dans la crise, se noue autour d’une présence responsable. Elle suppose une forme de mise en jeu de soi. Or on ne met pas en jeu un algorithme ; on met en jeu son nom, sa fonction, sa parole, parfois même sa carrière.
Former les dirigeants à parler sous pression devient encore plus stratégique
À mesure que les outils génératifs se diffuseront, beaucoup d’organisations feront l’erreur de croire que la question de la parole est réglée. Elles disposeront de notes plus rapides, de drafts plus propres, de Q&A plus complets, de messages internes plus fluides. Elles penseront avoir professionnalisé la communication de crise. Or elles n’auront résolu qu’une partie du problème.
La vraie question restera entière : qui est capable de parler sous pression ? Qui peut répondre à une caméra après un drame ? Qui sait articuler compassion, prudence factuelle et autorité ? Qui supporte d’être attaqué sans se raidir ? Qui parvient à assumer la complexité sans se réfugier dans la langue de bois ? Qui tient la ligne quand l’émotion collective devient écrasante ?
Former les dirigeants à cette épreuve devient donc plus stratégique, non moins. Il faut les entraîner à la contradiction, à la relance, à la fatigue, à la rareté des informations, à l’incertitude juridique, à l’intensité émotionnelle. Il faut leur apprendre non seulement à parler, mais à habiter leur parole. Il faut leur faire comprendre que la communication de crise n’est pas un vernis ajouté après coup à la décision ; elle fait partie de la responsabilité dirigeante elle-même.
Cette formation doit intégrer l’intelligence artificielle comme outil de préparation. Mais elle doit surtout réhabiliter l’apprentissage de l’incarnation : regard caméra, gestion du silence, rapport au corps, maîtrise du débit, capacité d’écoute, reformulation des griefs, reconnaissance des victimes, articulation entre humilité et commandement. Voilà ce que l’IA ne remplace pas, parce que ce sont des qualités de présence.
Dans la crise, la machine aide ; seul l’humain répond
Il faut résister aux prophéties simplistes. Non, l’intelligence artificielle ne remplacera pas le dirigeant dans la prise de parole sous pression. Elle transformera les méthodes, les rythmes, les préparations, les dispositifs d’alerte et les routines rédactionnelles. Elle deviendra un auxiliaire puissant de la communication de crise. Mais le cœur de l’épreuve demeurera humain.
Quand survient l’instant décisif, ce moment où l’organisation doit se montrer, expliquer, reconnaître, rassurer, promettre, assumer, ce n’est pas une technologie qui s’avance. C’est un être humain. Un dirigeant. Une voix. Un corps. Un regard. Et c’est cet être humain que le public juge, parce qu’il sait intuitivement qu’une crise révèle moins la qualité d’un logiciel que la vérité d’un leadership.
Dans l’ordre de l’information, les machines vont prendre une place croissante. Dans l’ordre de la responsabilité, elles resteront secondes. On leur demandera d’assister, de préparer, d’éclairer. On ne leur accordera pas le privilège dangereux de représenter seules l’institution au moment où celle-ci vacille. La parole qui compte, alors, n’est pas seulement une parole exacte. C’est une parole assumée.
Voilà pourquoi la prise de parole sous pression restera l’un des derniers bastions irréductiblement humains du pouvoir contemporain. Parce qu’au bord de la crise, quand la vérité manque encore, quand l’émotion déborde, quand la confiance se dérobe, la société ne demande pas un texte parfait. Elle demande qu’un responsable se lève et parle.