Accueil » Actualités » Communication de crise » Crise technologique et pédagogie : comment expliquer l’invisible au grand public
Crise technologique et pédagogie : comment expliquer l’invisible au grand public

La crise technologique est une crise de l’invisible
La première difficulté tient à la nature même de ces crises. Une panne électrique, un incendie ou un accident matériel présentent, malgré tout, une matérialité immédiate. Une crise technologique, elle, opère souvent en profondeur. Ce que l’on voit n’est qu’une surface : un refus de crédit, une recommandation absurde, un bug massif, une indisponibilité, une note erronée, une alerte injustifiée, un contenu généré trompeur. L’OCDE rappelle que les systèmes d’IA sont souvent plus complexes et que leurs résultats sont plus difficiles à expliquer que ceux d’autres technologies ; elle souligne aussi que, sans accès à la logique d’une décision liée à l’IA, il devient extrêmement difficile de rectifier cette décision. La CNIL formule une idée voisine lorsqu’elle précise que la complexité des systèmes d’IA ne doit pas empêcher la bonne compréhension de l’information par les personnes concernées et recommande de définir clairement les principales conséquences du traitement. Ce point est fondamental : en matière technologique, la crise commence souvent là où la chaîne causale se dérobe à la perception commune. Mais l’invisible n’est pas seulement technique. Il est aussi juridique, social et politique. Une crise technologique n’interroge jamais seulement le bon fonctionnement d’un système ; elle touche aussi à l’usage des données, aux critères de décision, à la place de l’humain, aux possibilités de contestation et au partage des responsabilités. L’OCDE montre dans Government at a Glance 2025 que la confiance dans l’usage légitime des données est étroitement liée à la confiance dans les institutions : en moyenne, 52 % des personnes interrogées dans les pays étudiés se disent confiantes dans le fait que leurs données ne sont utilisées que pour des raisons légitimes, tandis que 28 % ne le sont pas. Lorsqu’un incident technologique éclate, la question publique n’est donc pas seulement “qu’est-ce qui a planté ?”, mais aussi “qu’est-ce qui a été fait avec mes données, mes droits, mon accès à un service ou ma possibilité de recours ?”
Pourquoi la pédagogie devient stratégique
Dans ce contexte, la pédagogie cesse d’être un supplément de style. Elle devient une condition stratégique de la gestion de crise. L’OCDE écrit très explicitement que mieux équiper les personnes en connaissances et en compétences sur l’IA facilite l’explicabilité, peut renforcer la confiance dans les systèmes d’IA, et que les pays où les gens déclarent mieux comprendre l’IA tendent aussi à compter davantage de confiance envers les entreprises qui l’utilisent. Le même rapport note qu’en moyenne, plus d’un tiers des adultes dans l’OCDE ne disposent même pas des compétences numériques les plus élémentaires. Cela signifie qu’une organisation ne peut pas supposer, au moment de la crise, un niveau de compréhension technique minimal. Si elle parle comme si son public maîtrisait déjà les notions de modèle, de données d’apprentissage, de classification, de biais, de dérive ou de supervision humaine, elle fabrique elle-même une partie de l’opacité qu’elle prétend réduire. Cette nécessité de traduction n’est pas propre à l’IA. Le NCSC britannique, dans ses recommandations destinées aux responsables cyber, rappelle que la plupart des membres d’un conseil d’administration n’ont pas de connaissance approfondie en cybersécurité et qu’il appartient aux experts de faire le pont pour que le risque soit compris, géré et atténué. Autrement dit, expliquer un système technique à des non-spécialistes n’est pas un effort secondaire ; c’est une fonction constitutive de la bonne décision. Si cette exigence vaut pour un conseil d’administration, elle vaut plus encore pour le grand public, qui découvre souvent la crise depuis ses effets les plus concrets : impossibilité d’accéder à un service, suspicion d’erreur, perte de contrôle, ou inquiétude diffuse face à un dispositif dont les règles lui échappent.
De la transparence à l’intelligibilité
On invoque beaucoup la transparence dans les débats sur les technologies. Mais en communication de crise, la transparence ne suffit pas. Dire qu’un système d’IA a été utilisé, qu’un algorithme a produit une erreur ou qu’un “traitement automatisé” est impliqué dans un incident n’éclaire pas nécessairement le public. La CNIL fournit ici un cadre très utile : l’information, écrit-elle, doit être concise, transparente, compréhensible et aisément accessible, dans des termes clairs et simples ; elle ajoute que la complexité des systèmes d’IA ne doit pas empêcher cette compréhension et recommande une information à plusieurs niveaux, en donnant les éléments essentiels d’abord puis l’information complète ensuite. Le NIST, de son côté, insiste sur le fait que l’explicabilité utile doit être adaptée à la situation du destinataire. La Commission européenne, enfin, va dans la même direction : l’AI Act impose des obligations de transparence, prévoit que certaines informations soient données dans un format clair et accessible, et a fait entrer en application les obligations d’AI literacy dès le 2 février 2025. La pédagogie n’est donc plus seulement une bonne pratique ; elle devient progressivement une exigence de gouvernance. La différence entre transparence et intelligibilité est décisive. La transparence consiste à révéler qu’un système existe ou qu’un incident a eu lieu. L’intelligibilité consiste à expliquer ce que cela change pour les personnes concernées, comment le système intervient réellement, où s’exerce la supervision humaine, quelles données ou quels paramètres sont en jeu, quelles limites ont été identifiées, et quels recours demeurent possibles. L’OCDE note que fournir ce type d’information “en transparence” mais sous une forme compréhensible, c’est-à-dire explicable, permet non seulement aux personnes de réagir si elles se pensent lésées, mais aussi aux travailleurs et employeurs de prendre des décisions informées sur l’usage de l’IA et d’accroître confiance et acceptation. Le même rapport évoque explicitement l’intérêt d’explications “en langage clair”. Autrement dit, le public n’a pas seulement besoin de savoir qu’un système opère ; il doit comprendre suffisamment comment il affecte sa situation pour pouvoir juger ce que dit l’organisation.
Comment expliquer l’invisible
La première règle est simple : commencer par les conséquences visibles, pas par l’architecture du système. En situation de crise, le public ne se demande pas d’abord quel type de modèle a été utilisé ni quelle infrastructure logicielle est concernée. Il veut savoir ce qui s’est passé, qui est touché, ce qui change pour lui et ce qu’il doit faire maintenant. C’est seulement à partir de ce point de départ concret qu’une explication technique simplifiée devient utile. La CNIL recommande d’ailleurs de définir clairement les principales conséquences d’un traitement, autrement dit “quel sera réellement l’effet du traitement spécifique”. L’OMS, en matière de communication du risque, insiste parallèlement sur la nécessité de dire ce qui est connu et ce qui ne l’est pas. Une bonne pédagogie de crise technologique procède donc en deux temps : effets concrets d’abord, mécanisme ensuite ; certitudes d’abord, zones d’incertitude ensuite. La deuxième règle consiste à découper le système. L’une des raisons pour lesquelles les organisations échouent à expliquer une crise technologique est qu’elles parlent de “l’algorithme” ou de “l’IA” comme d’un bloc unique. Or la compréhension naît souvent de la séparation entre plusieurs couches : les données d’entrée, la phase d’apprentissage éventuelle, le modèle lui-même, les sorties produites, la vérification humaine et les mécanismes de correction. La CNIL recommande explicitement que l’information puisse détailler, y compris à l’aide de schémas, la manière dont les données sont utilisées lors de l’apprentissage, le fonctionnement du système développé, ainsi que la distinction entre base de données d’apprentissage, modèle d’IA et sorties du modèle. Cette recommandation vaut très au-delà du RGPD : elle offre une méthode générale pour rendre visible ce qui, autrement, reste confus. Expliquer l’invisible, c’est souvent montrer les étapes intermédiaires qui séparent la donnée de la décision. La troisième règle est de nommer les limites et les voies de recours. La pédagogie ne consiste pas à rendre la technique séduisante ; elle consiste à rendre le risque gouvernable. La CNIL recommande ainsi, à titre de bonne pratique, d’indiquer la nature de certains risques spécifiques liés aux modèles d’IA — par exemple le risque d’extraction ou de “régurgitation” de données dans l’IA générative —, les mesures prises pour les limiter, ainsi que les mécanismes de recours disponibles lorsque ces risques se matérialisent. L’OCDE souligne de son côté que sans explicabilité et sans accountability claire, les personnes affectées ne peuvent pas réellement contester ni faire rectifier les résultats d’un système d’IA. Une communication de crise technologiquement pédagogue n’est donc pas seulement descriptive. Elle doit aussi être procédurale : elle doit expliquer comment l’on peut vérifier, signaler, corriger et contester. La quatrième règle est d’adopter une information à plusieurs niveaux. Tout dire en bloc noie le public ; ne donner qu’une formule générale l’abandonne. La CNIL recommande précisément une information stratifiée : identité du responsable, finalités et droits au premier niveau ; information plus complète ensuite. Elle avertit également qu’une description scientifique rédigée dans un vocabulaire technique difficilement compréhensible n’est pas suffisante pour satisfaire à l’exigence d’intelligibilité. Cette observation est essentielle en crise. Une organisation ne doit pas choisir entre simplisme et technicité ; elle doit articuler un premier niveau de compréhension immédiatement exploitable et un second niveau de documentation plus détaillé pour ceux qui veulent approfondir, contester ou auditer. La pédagogie n’est pas la suppression de la complexité ; c’est son ordonnancement.
Les erreurs qui aggravent l’opacité
Plusieurs erreurs reviennent avec constance dans la communication des crises technologiques. La première est le jargon-refuge. Lorsqu’une organisation se sent fragilisée par la technicité de l’incident, elle peut être tentée de s’abriter derrière des formulations expertes : “anomalie du pipeline”, “instabilité du modèle”, “dégradation des performances”, “défaut de supervision”, “événement cyber”, “comportement émergent”. Ces expressions ont parfois un sens précis pour les spécialistes, mais elles ne disent rien ou presque à ceux qui subissent les effets. Le NCSC rappelle justement que l’expert doit parler dans le langage de son audience. La CNIL, quant à elle, avertit qu’un vocabulaire scientifique difficilement compréhensible ne répond pas aux exigences d’intelligibilité. L’opacité n’est donc pas seulement un attribut des systèmes ; elle peut être produite activement par le langage de l’organisation elle-même. La deuxième erreur est la fausse simplification. À l’inverse du jargon, elle consiste à écraser toutes les distinctions utiles sous des formules trompeusement nettes : “ce n’est qu’un bug”, “l’IA s’est trompée”, “aucune donnée n’est concernée”, “tout est revenu à la normale”. Ces phrases rassurent parfois à court terme, mais elles créent un risque élevé de contradiction ultérieure. En communication du risque, l’OMS recommande justement d’expliquer le degré d’incertitude et de distinguer ce qui est connu de ce qui ne l’est pas. La bonne pédagogie n’est pas une pédagogie infantilisante. Elle ne transforme pas un problème complexe en slogan rassurant ; elle aide le public à comprendre assez pour supporter l’incertain sans être trompé. La troisième erreur est de présenter la technologie comme une force autonome. Dire “l’algorithme a décidé”, “le système a estimé”, “l’IA a fait une erreur” peut sembler commode. Mais ce langage efface les choix de conception, les paramètres, les données, les procédures, les validations et les responsabilités humaines. L’OCDE insiste au contraire sur la nécessité d’identifier clairement les acteurs responsables, précisément parce que sans accountability claire, il n’est pas possible d’assurer la rectification des dommages ni de garantir les autres dimensions de la confiance. Une communication crédible doit donc expliquer non seulement ce que le système a fait, mais aussi qui l’a conçu, déployé, supervisé, corrigé et qui répond de ses effets. La pédagogie de crise est aussi une pédagogie de la responsabilité.
Une nouvelle compétence de crise : la traduction
Tout cela conduit à une conclusion plus large : dans les crises technologiques, communiquer revient de plus en plus à traduire. Traduire ne signifie pas appauvrir. Cela signifie passer d’un régime de langage pensé pour les experts à un régime de compréhension pensé pour des personnes concernées, inquiètes et souvent peu outillées pour interpréter seules l’événement. Cette fonction de traduction est d’ailleurs de plus en plus reconnue institutionnellement. L’AI Act européen distingue explicitement les risques de transparence, impose dans certains cas que les personnes sachent qu’elles interagissent avec une machine, exige que certains contenus générés soient identifiables, et prévoit des obligations d’AI literacy. Le droit reconnaît ainsi qu’une partie du problème des technologies contemporaines n’est pas seulement leur puissance, mais le déficit d’intelligibilité qui accompagne leur diffusion. Cette traduction doit aussi être inclusive. L’OMS/Europe, dans son travail de 2025 sur l’usage responsable de l’IA en communication des risques et en gestion de l’infodémie, souligne que ces outils peuvent aider à mieux atteindre des publics divers, mais qu’ils doivent être encadrés par des principes éthiques forts, de la gouvernance, de la formation, de l’inclusivité et de l’accessibilité. L’organisation ajoute que l’innovation ne doit jamais se faire au prix de la confiance ou de la sécurité. La leçon vaut au-delà du domaine sanitaire : une communication de crise technologiquement pédagogue ne peut pas être conçue seulement pour les publics déjà familiers du numérique. Elle doit être pensée pour ceux qui comprennent le moins, pour ceux qui supportent le plus mal l’abstraction et pour ceux dont les droits sont les plus exposés. La crise technologique oblige la communication de crise à sortir de ses habitudes. Elle ne peut plus se contenter d’annoncer un incident, de promettre une enquête et d’attendre que la technique produise, seule, la clarté. Lorsque les systèmes sont abstraits, distribués, algorithmiques ou invisibles, la communication doit produire ce que la technologie ne donne pas spontanément : une forme intelligible. Les sources les plus solides convergent sur ce point. Le NIST fait de l’explicabilité adaptée au destinataire une condition de la confiance ; l’OCDE relie compréhension, explicabilité et confiance ; la CNIL exige des informations claires, simples, accessibles et structurées en plusieurs niveaux ; l’OMS rappelle qu’il faut dire ce qui est connu et inconnu ; l’Union européenne fait désormais de la transparence et de l’AI literacy des obligations de gouvernance. En d’autres termes, la pédagogie n’est plus un habillage de la crise technologique. Elle en est une condition de gouvernabilité. Expliquer l’invisible au grand public, ce n’est ni simplifier à outrance ni noyer sous la documentation. C’est donner à voir les conséquences, découper les mécanismes, nommer les responsabilités, reconnaître les incertitudes, ouvrir les recours et ordonner la complexité. Une organisation qui sait faire cela ne se contente pas de “mieux communiquer”. Elle restaure la seule chose qui compte vraiment quand la technique devient opaque : la possibilité, pour ceux qui la subissent, de comprendre assez pour ne pas être simplement dominés par elle.