Pourquoi experts et non-experts ne sont jamais d’accord

cerveau

Les experts techniques font appel à la partie Gauche du cerveau. 

Les experts se concentrent généralement sur la logique et le raisonnement. Leur priorité est de gérer le danger.

Ils veulent savoir :

  • « Quelle est la menace tangible pour la vie humaine, la santé ou la propriété privée ? »
  • « Quelle est la probabilité qu’il soit réellement porté atteinte à la vie humaine, la santé ou la propriété privée ? »

Les non-experts font appel à la partie Droite du cerveau.

Les non-experts parmi la population se concentrent généralement sur l’émotion et les sentiments. Leur priorité est qu’on tienne compte de leur indignation rappelle Florian Silnicki, expert en communication de crise et fondateur de l’agence LaFrenchCom.

Ils veulent savoir :

  • « Quelles sont les conséquences potentielles pour moi, ma famille et ma communauté ? »
  • « Que risquons-nous de perdre en matière de valeurs personnelles, culturelles ou morales ? »

Experts vs grand public : la grande divergence de perception en temps de crise

Lorsque survient une crise majeure, qu’elle soit sanitaire, industrielle ou environnementale, un écart frappant de perception apparaît souvent entre les experts techniques et le grand public. Face à une même situation d’urgence, ingénieurs et scientifiques d’un côté, citoyens et non-spécialistes de l’autre, ne semblent pas vivre la même réalité. Pourquoi une telle divergence ? Comment ces différences de vue affectent-elles la communication de crise ? Et surtout, que faire pour combler cette fracture cognitive ? Comment logique et faits d’un côté, émotions et perceptions de l’autre, peuvent entrer en collision en pleine tempête médiatique ?

Logique contre émotion : pourquoi nos perceptions divergent

En situation de crise, les experts techniques privilégient une approche rationnelle. Ils s’appuient sur les données disponibles, les faits mesurés et une analyse méthodique des risques. Leur formation scientifique les pousse à quantifier le danger, à estimer par exemple la probabilité d’un accident ou le niveau d’exposition à un toxique, puis à en déduire des mesures de gestion. En somme, ils tentent d’objectiver la menace. À l’inverse, les non-experts réagissent davantage avec leurs tripes. Le grand public perçoit le risque à travers le prisme de ses émotions, de ses valeurs et de son expérience vécue. La peur, l’incertitude et le sentiment de perte de contrôle colorent fortement sa vision de la situation.

De nombreuses études en psychologie du risque ont documenté ce décalage. Par exemple, les citoyens accordent souvent un poids élevé à des dangers qui, statistiquement, sont très improbables – surtout s’ils sont spectaculaires ou mal connus. Ils sont moins sensibles aux faibles probabilités : qu’un événement ait une chance sur 1000 ou sur 1 million de se produire fait peu de différence dans leur esprit, s’il évoque des images effrayantes​. Les experts, au contraire, évaluent finement ces probabilités et tendent à relativiser un risque quand la chance qu’il survienne est infime​. De même, l’imaginaire collectif amplifie certains facteurs de crainte : un danger invisible, involontaire ou inconnu (radiations, virus émergent, pollution chimique…) suscite bien plus d’angoisse qu’un risque accepté comme faisant partie du quotidien (conduire sa voiture, prendre l’avion)​. Les experts, formés à mesurer le risque en termes de dommages concrets (nombre de vies perdues, etc.), peuvent sous-estimer cette dimension psychologique : or, le public juge légitimement plus terrifiante une menace qu’il subit sans la choisir (par exemple, être exposé à un toxique environnemental) par rapport à un danger résultant d’une action volontaire (par exemple, fumer en connaissance de cause)​.

Résultat : le public et les experts ne parlent pas le même langage du risque. Le grand public se montre généralement plus pessimiste dans ses jugements. Une enquête menée par l’IRSN (Institut de radioprotection et de sûreté nucléaire) a ainsi révélé que les non-experts classent plus fréquemment les situations dans les catégories de danger “élevé” ou “très élevé”, comparativement aux spécialistes interrogés​. L’écart est notable – environ 20 % de différence en moyenne sur l’évaluation de l’importance d’un même risque​. Autrement dit, face à un danger donné, le profane a tendance à le juger plus grave que ne le fait l’expert, qui adopte une appréciation plus nuancée. Ce contraste se retrouve également dans la confiance accordée aux solutions : les experts font confiance à la technologie et aux protocoles pour maîtriser la situation, tandis que le public, de son côté, se méfie volontiers et doute que “tout soit vraiment sous contrôle”. Cette asymétrie peut conduire les autorités à stigmatiser les peurs du public en les jugeant irrationnelles ou à fustiger l’“inconscience” de certains comportements (refus de se confiner, de porter un masque, etc.)​. Mais de l’autre côté, du point de vue des citoyens, il est frustrant d’entendre des discours technocratiques qui semblent ignorer leurs angoisses bien réelles.

Il est important de noter que les profanes ne sont pas “irrationnels” pour le plaisir de l’être. Comme l’explique la sociologie du risque, les non-spécialistes construisent du sens avec les moyens dont ils disposent : en l’absence d’informations claires, ils comblent les vides avec des références connues, des analogies et leur propre vécu​. Ce mécanisme de « bricolage » cognitif est parfaitement compréhensible. Par exemple, au début de l’épidémie de Covid-19, beaucoup de gens se demandaient si ce nouveau coronavirus était “plus ou moins dangereux que la grippe”​, faute de mieux pour l’évaluer. De même, lors d’un accident nucléaire impliquant des rejets radioactifs, un parent peut immédiatement penser à Tchernobyl et s’alarmer en tirant des conclusions par analogie – même si la situation réelle est différente. Ces réactions montrent une forme de rationalité non-scientifique qui guide le grand public : une rationalité fondée sur la mémoire d’événements marquants, les émotions et les jugements moraux. Les experts seraient bien inspirés de reconnaître cette rationalité alternative plutôt que de la balayer d’un revers de main. Comme le souligne une analyse sur les retours d’expérience de Fukushima, la remise en question doit être mutuelle : on attribue souvent les malentendus à l’“illettrisme” scientifique ou à l’émotivité du public, mais les experts ont aussi leur part de responsabilité dans la mauvaise communication​ sur le risque. Après tout, communiquer est un processus bidirectionnel. En temps de crise, si le message ne passe pas, ce n’est pas forcément parce que le public “n’écoute rien à la raison” – c’est peut-être aussi parce que la raison des experts n’intègre pas les préoccupations des publics.

Avant de proposer des solutions, attardons-nous sur quelques crises emblématiques où ce fossé experts/non-experts s’est manifesté de façon flagrante. Ces exemples permettront de concrétiser les dynamiques décrites et d’en dégager les leçons.

Pandémie de Covid-19 : des scientifiques sur la brèche face aux angoisses du public

Dès les premiers mois de la pandémie de Covid-19, on a vu se creuser un écart de perception entre, d’une part, les autorités sanitaires et épidémiologistes, et d’autre part, la population générale. Pour les experts, le nouveau coronavirus était avant tout une affaire de statistiques épidémiologiques – taux de reproduction (R0), courbes de contamination, pourcentages de formes graves, etc. Ils cherchaient à quantifier le risque et à recommander des mesures basées sur ces indicateurs (distanciation, confinement, port du masque…). En face, la plupart des citoyens vivaient surtout une expérience inédite faite de peur diffuse, d’incertitudes quotidiennes et de chamboulement de leurs repères. Les préoccupations immédiates du public touchaient à l’affect et au concret : “Vais-je tomber malade ? Ma famille est-elle en danger ? Pourrai-je rendre visite à mes proches âgés ? Vais-je perdre mon emploi ?”. Ce décalage d’attentes a souvent rendu la communication politique difficile.

Un exemple frappant fut celui des masques de protection. Les fameux Masques FFP1, FFP2 et FFP3 contre les fines particules, les aérosols, les virus et bactéries. Initialement, les messages officiels se voulaient rassurants – ou du moins prudents – sur ce sujet sensible. En France, au début 2020, les autorités sanitaires affirmaient qu’il n’était pas nécessaire que la population générale porte un masque, alignant leur discours sur les recommandations de l’OMS à ce moment-là. En réalité, ce choix de communication était dicté en partie par des considérations logistiques (pénurie de masques à anticiper) et par l’incertitude scientifique initiale sur la transmission du virus par des asymptomatiques. Ce message s’est révélé désastreux une fois que la donne a changé. Quand il est devenu clair que le port du masque généralisé était utile, le gouvernement a dû faire volte-face et encourager tout le monde à se masquer. Beaucoup ont alors vu la position initiale comme un mensonge qui avait mis la santé publique en danger. Yves Sciama, président de l’association des journalistes scientifiques, a parlé à ce propos de « désastreuse affaire du mensonge sur les masques » qui a « durablement discrédité la parole gouvernementale »​. En pleine crise, ce recul de la confiance a coûté cher : une partie du public, déjà stressé, est devenu profondément méfiant envers les consignes officielles. L’exécutif a été accusé tantôt de minimiser les dangers, tantôt de dramatiser – bref, de “flotter” au gré des circonstances. Cette érosion de la crédibilité illustre à quel point la cohérence et la transparence sont vitales en communication de crise. Un message faux ou contradictoire perçu par le public, et c’est la porte ouverte aux rumeurs et aux soupçons les plus délirants.

Autre difficulté durant la pandémie : le choc entre le langage scientifique et la perception profane. Les épidémiologistes parlaient en pourcentages de mortalité relativement faibles (par exemple, un taux de létalité de quelques pourcents). Mais pour beaucoup d’individus, chaque décès rapporté quotidiennement était de trop, et la peur existentielle dominait les pourcentages abstraits. Inversement, certains minimisaient le danger en rappelant que “95% des malades s’en sortent”, ce qui indignait les soignants confrontés à des hôpitaux saturés. La même statistique n’évoquait pas du tout la même chose selon qu’on la voyait par le prisme de l’émotion ou de la logique froide. De plus, les valeurs et priorités divergentes ont compliqué l’adhésion collective : les experts en santé publique mettaient en avant la solidarité sanitaire (“protégez les autres en portant un masque, en vous vaccinant”), tandis que certains citoyens ressentaient surtout une atteinte à leurs libertés individuelles ou nourrissaient une défiance vis-à-vis des élites. Le mouvement anti-masques ou anti-vaccins – minoritaire mais bruyant – s’est appuyé sur des arguments émotionnels (méfiance envers “Big Pharma”, peur des effets secondaires, théorie du complot) là où la communauté scientifique avançait des données d’essais cliniques et des rapports bénéfices-risques.

Conséquence : un véritable « dialogue de sourds » s’est parfois installé entre les autorités sanitaires et une partie du public. Chaque camp campait sur sa réalité : les uns invoquant la Science et la nécessité, les autres leur ressenti et leurs convictions personnelles. Il aura fallu du temps et des efforts pédagogiques pour rapprocher les points de vue, et tout n’est pas encore résolu (on le voit avec la persistance de l’hésitation vaccinale, qui puise ses racines dans une crise de confiance bien antérieure au Covid). La pandémie de Covid-19 a ainsi mis en lumière de façon aiguë la nécessité de mieux articuler le discours scientifique aux émotions du public. Elle a rappelé que la vérité scientifique ne suffit pas, si elle n’est pas entendue et crue par ceux à qui elle s’adresse.

Crises industrielles : l’exemple de Fukushima et de Lubrizol

Les accidents industriels offrent également un terrain fertile pour observer la divergence de perception entre experts et non-experts en situation de crise. Deux cas, à des échelles différentes, illustrent comment les faits bruts opposés au vécu sensible peuvent générer un fossé dans la compréhension de l’événement.

Fukushima : un accident nucléaire sous le prisme de la peur

Le 11 mars 2011, la centrale nucléaire de Fukushima Daiichi au Japon est frappée par un tsunami qui provoque un accident majeur, avec fusion de cœur et rejets radioactifs. Très vite, les ingénieurs et radioprotectionnistes mobilisés sur place ont commencé à mesurer les taux de radiation, à modéliser la dispersion du nuage et à évaluer les risques sanitaires à l’aide de leurs outils techniques. Des chiffres sont publiés : doses en microsieverts, becquerels détectés dans tel aliment, rayon d’évacuation recommandé, etc. Du point de vue technique, l’important était de collecter et diffuser des données objectives pour guider les décisions (évacuations, interdictions de consommation, etc.).

Or, au cours des premiers jours, la communication officielle s’est trouvée largement défaillante. Par crainte de provoquer la panique, les autorités nippones ont retenu certaines informations critiques. Par exemple, un système de modélisation appelé SPEEDI avait rapidement prédit la trajectoire des retombées radioactives, mais ces prévisions n’ont été divulguées au public que bien plus tard, près de deux semaines après le début de la catastrophe​. Faute de consignes claires, certains habitants évacués se sont dirigés sans le savoir vers des zones plus contaminées, se mettant en danger alors qu’ils cherchaient à l’éviter. Par la suite, lorsque le gouvernement a tenté de rattraper son retard en communiquant massivement, il l’a fait en assénant un flot de données brutes difficilement interprétables pour le non-initié​. Comme l’a rapporté un journaliste présent, “on nous a jeté des caisses et des caisses de chiffres sans explication”​. Le public se trouvait noyé d’informations, mais pas réellement informé. Dans le même temps, les porte-parole officiels se voulaient toujours se rassurants – parfois à contre-temps. Même alors que certaines mesures dépassaient les seuils de sécurité habituels, des responsables continuaient d’affirmer que “tout allait bien, il n’y a pas de risque”​. De tels messages en décalage avec la réalité observable ont fortement sapé la confiance.

Du côté de la population locale (et mondiale, car l’événement était très médiatisé), l’angoisse montait. La radiation est un danger typiquement invisible et anxiogène : on ne la voit pas, on ne la sent pas, mais on sait qu’elle peut causer des cancers des années plus tard. Ce caractère insidieux alimente une peur diffuse, un sentiment d’impuissance. Les habitants de Fukushima, ne se fiant qu’à eux-mêmes, guettaient frénétiquement les nouvelles, les témoignages, tout en se demandant s’ils n’étaient pas déjà contaminés. Quand l’État a brusquement élargi la zone d’évacuation ou relevé sans explication les normes admissibles de radioactivité (par exemple en fixant pour les écoliers une limite de dose annuelle 20 fois plus élevée qu’auparavant, déclenchant la colère des parents), le mal était fait : la confiance était rompue.

Fukushima illustre douloureusement comment la “vérité des experts” doit intégrer l’humain. Les autorités disposaient certes de leurs mesures et de leurs calculs de dispersion, mais elles n’avaient pas suffisamment considéré la psychologie du public. En voulant éviter la panique, elles ont péché par excès de rétention d’information, puis par une communication trop froide. Résultat : elles ont obtenu justement ce qu’elles redoutaient – la panique et la défiance. De cette crise, on retient que la transparence et la pédagogie auraient dû primer. Reconnaître l’ampleur de l’accident dès le départ, expliquer clairement les risques encourus (sans les minimiser ni les exagérer), aurait sans doute permis aux citoyens de faire des choix éclairés au lieu d’être plongés dans la confusion. Par ailleurs, ce cas a révélé l’importance de respecter le ressenti du public : des études ont montré qu’après Fukushima, les habitants avaient leur propre « rationalité profane », différente de celle des experts, mais cohérente pour eux dans leur vie quotidienne​. Ignorer cette rationalité alternative, c’était courir à l’échec dans la communication.

Lubrizol : “Tout va bien” … sauf pour ceux qui ont les yeux qui brûlent

Revenons en France. Le 26 septembre 2019, un incendie spectaculaire se déclare en pleine nuit dans l’usine chimique Lubrizol, à Rouen. Au petit matin, la ville et ses environs se réveillent sous un épais nuage de fumée noire. L’odeur âcre se répand, des suies tombent sur les toits, la scène a de quoi inquiéter la population. Immédiatement, les autorités locales déclenchent une communication de crise très cadrée. Le message officiel se veut rassurant sur le plan sanitaire : les prélèvements effectués indiquent que “les molécules retrouvées ne dépassent pas les normes de pollution”, donc a priori il n’y a pas de danger grave pour la santé​. Aucune consigne de confinement stricte n’est donnée, hormis pour les personnes fragiles en cas de gêne, et il est recommandé aux habitants de reprendre leur vie normale​. En somme, la préfecture communique de manière classique : on s’en tient aux faits mesurés (quels polluants, à quelle concentration) et on en déduit les risques réglementaires. Sur le papier, rien à redire : “c’était légitime et juste”, dira a posteriori un expert, car les analyses ne franchissaient effectivement pas les seuils dictant un confinement​.

Le problème, c’est que sur le terrain, la population ressent tout autre chose. Très vite, les témoignages abondent : yeux qui piquent et pleurent, nausées, vomissements, maux de tête, vertiges…​ Des centaines de riverains éprouvent ces symptômes en respirant l’air chargé de particules. Difficile, dès lors, pour eux de croire qu’“il n’y a aucun danger” alors qu’ils en subissent physiquement les effets​. Ce décalage sensoriel va nourrir un profond sentiment de défiance. Les autorités disent : “Tout va bien, circulez”, mais les gens, eux, sont malades (ou du moins indisposés). Comment accepter l’affirmation rassurante dans ces conditions ? Ce cas est presque caricatural de la divergence de perception : les experts ne voyaient que des chiffres dans la norme, le public vivait une expérience corporelle alarmante.

Par la suite, on comprendra ce qui s’est passé. Les analyses montraient bien des taux en dessous des seuils de danger grave, mais elles n’avaient pas traduit les effets à court terme de certains gaz irritants. En l’occurrence, des molécules soufrées (composés à base de soufre) se sont répandues en quantité suffisante pour provoquer des irritations des yeux et des voies respiratoires, sans pour autant atteindre le niveau imposant des mesures de protection lourdes​. Autrement dit, oui, les gens avaient les yeux rouges et la gorge qui gratte, non, ils n’allaient pas s’écrouler intoxiqués sur-le-champ. Mais ce message nuancé n’a jamais été clairement expliqué sur le moment. On a dit aux habitants “rien de préoccupant”, sans répondre à leur question légitime : “Alors pourquoi ai-je tous ces symptômes ?”. Ce faisant, la communication institutionnelle est passée à côté de l’essentiel : l’empathie et la pédagogie. Comme le souligne Matthieu Fournier, chercheur qui a coordonné une étude post-accident, si les communicants de crise avaient intégré “le registre sensoriel” dans leurs messages – c’est-à-dire reconnu ce que les gens ressentaient physiquement et l’avaient expliqué –, cela aurait pu éviter ce sentiment de défiance qui s’est installé​. En disant par exemple : “Vous avez la gorge irritée à cause de telle substance présente dans l’air ; la concentration n’est pas dangereuse pour votre santé à long terme, mais elle explique vos symptômes et ceux-ci disparaîtront une fois le panache dissipé”, les autorités auraient montré qu’elles prennent en compte le vécu du public, tout en maintenant un discours factuel. Au lieu de cela, l’écart de langage a laissé penser aux citoyens qu’on leur cachait forcément quelque chose de grave, puisque leur réalité perceptible contredisait la parole rassurante officielle.

Lubrizol est un cas d’école de crise où la communication strictement factuelle atteint ses limites. La fameuse phrase “pas de polluants au-delà des normes” n’a pas eu l’effet escompté, car elle n’adressait pas le décalage cognitif du public. Ici, l’expertise scientifique a manqué une dimension clé : la psychologie des victimes potentielles. Les habitants se fichaient bien de savoir que tel produit toxique n’était présent qu’à X µg/m³ si, en même temps, ils voyaient cette fumée noire inquiétante recouvrir leur ciel et qu’ils en ressentaient des picotements dans la gorge. L’erreur n’était pas de communiquer des faits – il le fallait – mais de ne pas les avoir reliés à l’expérience concrète des gens. La leçon à en tirer rejoint celle de Fukushima : en gestion de crise, il faut expliquer les faits de manière intelligible et connectée au ressenti du public, faute de quoi on parle dans le vide et on perd sa crédibilité.

Catastrophes environnementales : quand le danger invisible fait peur, quitte à défier la raison

Dans le registre des crises environnementales (pollutions chimiques, catastrophes écologiques, etc.), on retrouve souvent cette opposition entre l’évaluation rationnelle du risque par les experts et l’indignation ou la peur collective du public. Un exemple historique illustre bien ce phénomène : l’affaire du Love Canal aux États-Unis, à la fin des années 1970.

Love Canal est un quartier résidentiel de l’État de New York, construit sur l’ancien site d’une décharge industrielle. Des tonnes de déchets toxiques y avaient été enfouis des décennies plus tôt. À la fin des années 70, après de fortes pluies, des substances chimiques refont surface – émanations nauséabondes, résidus dans l’eau, etc. Les habitants, constatant cela, s’alarment pour leur santé et celle de leurs enfants. L’affaire attire vite l’attention des médias, qui parlent de désastre environnemental. Face à l’inquiétude générale, les autorités réalisent des analyses et mesures. Les experts dépêchés sur place détectent bien la présence de composés chimiques dont certains cancérigènes, mais à des niveaux très faibles. Le rapport officiel conclut que la toxicité observée n’est “pas du tout menaçante” pour la population​. Techniquement, les concentrations relevées, bien que non nulles, sont en deçà des seuils considérés comme dangereux. Pourtant, les riverains ne sont pas du tout rassurés par ces résultats​. Comment le seraient-ils ? L’odeur chimique flotte dans l’air, des fûts rouillés émergent du sol par endroits… Pour eux, il est inconcevable que tout aille bien. Rapidement, la colère monte : les habitants forment des comités, une mère de famille du quartier, Lois Gibbs, devient la porte-parole acharnée de la communauté. Elle harcèle les autorités, alerte la presse, brandit le risque de cancers infantiles. Une véritable panique collective s’installe, entretenue par la couverture médiatique intense qui dramatise chaque rebondissement​. Le sujet prend une ampleur nationale. Finalement, le gouvernement fédéral doit intervenir : on évacue des centaines de familles et le site de Love Canal est déclaré zone sinistrée​. L’affaire donnera même lieu à l’un des premiers grands plans de décontamination financés par l’État (et elle contribuera à la création des Superfund, programmes de gestion des sites toxiques aux USA).

Du point de vue des experts scientifiques, le risque objectif à Love Canal avait été surestimé par la population. Certains analystes estimeront a posteriori que les ressources dépensées pour nettoyer et reloger les habitants étaient sans commune mesure avec le danger réel, et qu’avec cette somme on aurait sauvé bien plus de vies en l’investissant dans la prévention d’autres risques (par exemple la lutte contre le tabagisme ou les accidents de la route)​. Autrement dit, selon eux, la réponse à Love Canal n’était pas “rationnelle” d’un strict point de vue coût-bénéfice. Néanmoins, il aurait été impensable politiquement de ne rien faire : l’émotion collective était trop forte, et sans doute fondée en partie sur une perception légitime – celle d’une injustice. Les habitants s’indignaient qu’on ait mis leurs familles en danger (même potentiellement) en les faisant vivre sur une poudrière chimique sans les en informer. C’était là un jugement de valeur plus qu’un calcul de probabilité. Et ce jugement a porté la décision publique. Love Canal montre que dans une crise environnementale, la bataille se joue autant sur le terrain de l’éthique et de l’affect que sur celui de la science. Aux yeux du grand public, “un risque évitable n’a pas à être couru” – peu importe que la probabilité de dommage soit minuscule. Les experts ont retenu de cet épisode que le ressenti d’insécurité compte autant que l’indicateur d’insécurité lui-même.

D’autres crises environnementales ont connu un schéma semblable. On peut citer l’affaire de l’Alar (un pesticide utilisé sur les pommes) aux États-Unis en 1989 : des études toxicologiques initiales n’avaient pas trouvé de risque notable, mais la diffusion de reportages alarmistes sur un potentiel effet cancérigène (observé chez des rongeurs à très haute dose) a provoqué une panique chez les consommateurs, au point de faire chuter drastiquement la vente de pommes et de ruiner une partie de l’agriculture, alors même qu’aucun danger avéré n’avait été confirmé par les scientifiques​. Ici encore, la perception du risque (même infime) par le public, alimentée par les médias, a eu un impact bien réel – économique, en l’occurrence – surpassant largement le risque sanitaire “réel” tel qu’évalué par les données.

Ces exemples – Love Canal, Alar, et on pourrait en citer d’autres – illustrent que **lorsqu’un enjeu touche à la santé, à l’environnement et à la sécurité collective, le public a tendance à sur-réagir ou sous-réagir par rapport à l’évaluation experte. Il peut sur-réagir (en voyant un danger extrême là où la science voit un risque modéré) ou à l’inverse sous-réagir (en ne prenant pas au sérieux un danger diffus comme le changement climatique parce qu’il le perçoit comme lointain ou incertain). Dans tous les cas, le prisme émotionnel et culturel joue un rôle déterminant. Une image choc (des pélicans couverts de pétrole, une école évacuée pour contamination, etc.) aura plus d’effet sur l’opinion que dix rapports d’expertise. Lors de la marée noire Deepwater Horizon dans le Golfe du Mexique en 2010, par exemple, la compagnie BP a tenté initialement de minimiser l’ampleur de la fuite et de rassurer en mettant en avant ses moyens technologiques pour colmater le puits​. Tant que le pétrole coulait loin des côtes, invisible en surface, le public est resté relativement passif, s’en remettant aux promesses de BP​. Mais dès que les premières nappes ont touché les rivages et que les médias ont montré les oiseaux englués de mazout, la réaction a été vive. BP a alors été perçu comme totalement déconnecté de la réalité du désastre, son discours initial apparaissant comme un écran de fumée dérisoire​. Là encore, la vue d’un pélican mazouté a eu plus d’impact que tous les communiqués rassurants de BP.

En somme, qu’il s’agisse d’un accident chimique local, d’une catastrophe nucléaire ou d’une pollution environnementale diffuse, la fracture de perception entre experts et non-experts est un facteur omniprésent. Elle peut prendre des formes variées – peur excessive, déni, colère, incompréhension – mais elle est toujours à prendre en compte si l’on veut gérer efficacement la crise. La communication de crise se trouve au cœur de ce défi : comment informer sans paniquer, comment rassurer sans mentir, comment décider des actions à partir des faits tout en respectant ce que ressentent les gens ? C’est ce que nous abordons à présent, en proposant quelques conseils clés aux communicants confrontés à ce grand écart cognitif.

Combler l’écart : conseils aux communicants pour réconcilier experts et public

Pour un futur professionnel de la communication de crise, gérer la divergence de perception entre techniciens et grand public est un enjeu crucial. Voici quelques pistes concrètes pour y parvenir :

  • Adoptez un langage clair et accessible : bannissez le jargon technique inutile et expliquez les données de manière compréhensible. Le public ne doit pas seulement entendre des chiffres, il doit en saisir la signification concrète. Si vous annoncez un taux de 0,5 ppm de tel produit chimique, traduisez aussitôt ce que cela implique (par ex. “c’est bien en-dessous du seuil qui provoquerait des symptômes”). Sans cette vulgarisation, le message des experts restera ésotérique pour le non-initié.

  • Reconnaissez et respectez les émotions : Ne balayez pas les peurs du revers de la main. Évitez les formules du type “Il n’y a pas de raison d’avoir peur, circulez” sans davantage d’explications. Au contraire, montrez de l’empathie. Dites par exemple : “Nous comprenons que ces images/ces odeurs/ces informations puissent vous inquiéter”. Légitimer le ressenti ne signifie pas acquiescer à des rumeurs, mais prouver au public que vous tenez compte de ses préoccupations. Dans le cas Lubrizol, on l’a vu, expliquer l’origine des irritations ressenties aurait grandement rassuré les riverains​. Un public qui se sent écouté sera plus réceptif au discours rationnel que vous apporterez ensuite.

  • Soyez transparents – y compris sur ce que vous ignorez : La confiance est la monnaie d’échange numéro un en temps de crise. Si vous cachez des informations clés ou que vous mentez, vous serez tôt ou tard démasqué et la confiance sera brisée. Or, sans confiance, plus personne ne croira vos consignes, ce qui peut aggraver la crise. Mieux vaut admettre “nous ne savons pas encore” que d’inventer une pseudo-assurance. Par exemple, l’épisode des masques au début du Covid a montré qu’un mensonge perçu a un coût énorme : la crédibilité des autorités a été durablement entamée​. Ne reproduisez pas cette erreur : dites ce que vous savez mais aussi ce que vous ne savez pas. Le public peut accepter l’incertitude si elle est clairement avouée et accompagnée d’un plan (“des études sont en cours, nous vous tiendrons informés dès que nous aurons les résultats”). En revanche, il n’accepte pas qu’on lui raconte des histoires.

  • Expliquez le “pourquoi” des mesures : Si des consignes sont émises (confinement, évacuation, interdiction de consommer tel produit, etc.), justifiez-les de façon concrète pour que le public y adhère. Ne vous contentez pas de dire “c’est la procédure” ou “c’est comme ça”. Dites “nous vous demandons de faire X parce que cela va réduire le risque de Y”. À l’inverse, si vous décidez de ne pas imposer une mesure drastique, expliquez aussi pourquoi (par ex. “nous n’ordonnons pas de confinement général car les analyses montrent un niveau de toxique sous le seuil dangereux – rester chez soi n’apporterait pas de bénéfice supplémentaire”). Donner du sens aux décisions aide à éviter que le public ne les réinterprète à sa manière (angoisse excessive ou sentiment qu’on sous-estime le problème).

  • Mettez en perspective avec des références parlantes : Pour aider un public profane à évaluer un risque, comparez-le à des situations qui lui parlent. Attention, pas de fausse comparaison rassuriste qui minimiserait à tort (ce serait contre-productif). Mais par exemple, dire “cette dose de radiation équivaut à trois radios des poumons” ou “ce virus est plus contagieux que la grippe mais moins mortel que X” peut aider les non-experts à se représenter l’ordre de grandeur. Choisissez des analogies avec des choses connues du grand public, sans oublier d’en signaler les limites. L’idée est de créer des repères là où l’expert manipule des concepts abstraits.

  • Maintenez un flux d’information régulier et fiable : Le silence radio est l’ennemi de la confiance. Si les autorités ne communiquent pas assez, le public comblera le vide avec des spéculations souvent anxiogènes. Il est donc vital d’établir un rythme de communication prévisible (par exemple, un point d’information chaque jour à heure fixe)​. Annoncez d’emblée quand et vous ferez des mises à jour​. Des bulletins réguliers, même s’ils n’apportent pas toujours de nouveaux éléments, montrent que la situation est suivie de près. En revanche, des infos tardives, erratiques, ou contradictoires donneront l’impression que “personne ne pilote”, ce qui nourrit l’anxiété​. La prévisibilité rassure : elle prouve qu’il y a un plan d’action et une maîtrise relative de la crise.

  • Adressez-vous aux valeurs autant qu’à la raison : Un message purement factuel peut passer à côté de l’essentiel si le public attend autre chose. N’hésitez pas à faire appel aux valeurs collectives pour susciter l’adhésion. Par exemple, en pleine crise sanitaire, souligner la solidarité (“Protégeons les plus vulnérables en appliquant les consignes”) peut toucher les gens plus profondément qu’une statistique. De même, dans une catastrophe écologique, reconnaître la légitimité morale de la colère du public (“Il est inacceptable que notre communauté subisse cela, nous allons faire tout notre possible pour y remédier”) peut désamorcer l’hostilité et ouvrir la voie à un dialogue plus constructif. En un mot, montrez votre humanité autant que votre expertise.

  • Choisissez des porte-parole de confiance : La crédibilité de la personne qui parle compte autant que le contenu. Identifiez des experts qui sachent parler simplement, ou des relais locaux (médecins de famille, maires, enseignants) capables de traduire le message dans le langage du public. Parfois, faire témoigner une figure respectée peut débloquer la réception du message. Par exemple, lors de campagnes de vaccination, le fait qu’un médecin de proximité ou un pharmacien explique calmement les bénéfices et risques peut avoir plus d’impact sur les hésitants que le énième communiqué du ministre. L’important est de créer un lien de confiance entre l’émetteur du message et son audience.

Enfin, gardez en tête que la communication de crise se joue autant sur le registre émotionnel que sur le contenu informatif. Le public, après coup, se souviendra surtout de ce qu’il a ressenti pendant la crise, plus que des détails exacts de ce qui s’est passé​. Si vous parvenez à ce qu’il se sente écouté, compris et respecté, vous aurez déjà gagné une grande partie de la bataille de la communication – et facilité la gestion opérationnelle de la crise elle-même. À l’inverse, si le public se sent manipulé, ignoré ou méprisé, aucune donnée scientifique, si exacte soit-elle, ne pourra dissiper complètement la méfiance.

En conclusion, réduire la divergence de perception entre experts techniques et non-experts est un défi de tous les instants en gestion de crise. Mais en faisant l’effort de “traduire” la science en émotions compréhensibles, d’allier la raison et le cœur dans votre communication, vous deviendrez ce pont indispensable entre le monde des faits et celui de l’expérience humaine. C’est à ce prix que vos messages de crise seront réellement percutants, audibles et mobilisateurs. Et que, peut-être, experts et grand public finiront par voir la crise sous un jour un peu plus commun – ensemble, plutôt que divisés.