Accueil » Actualités » FAQ » Dictionnaire 2026 de la Communication de Crise Tech et Numérique
Dictionnaire 2026 de la Communication de Crise Tech et Numérique

A
Accusation de copie (propriété intellectuelle contestée). Les accusations de copie entre éditeurs de logiciels, entre IA entraînées sur des corpus concurrents, entre plateformes aux fonctionnalités similaires, sont devenues récurrentes. Elles peuvent aller jusqu’au contentieux (procès OpenAI / NYT, Stability AI / Getty Images). La communication doit préparer des réponses techniques précises : qu’est-ce qui a été utilisé, dans quelles conditions, avec quelles licences. Les réponses vagues (« tout est dans les pratiques du secteur ») sont retournées par des démonstrations documentées des plaignants.
Adtech (marché contesté). La publicité programmatique et l’écosystème adtech sont contestés sur plusieurs plans : vie privée, efficacité réelle, place des intermédiaires, impact environnemental des enchères en temps réel. Les scandales récurrents (publicités sur sites de désinformation, fraudes publicitaires, mesure discutée) créent des crises sectorielles. La communication des acteurs adtech doit accepter un débat structurel plutôt que répondre uniquement aux attaques ponctuelles. Les formulations qui défendent globalement le secteur contre « l’incompréhension » se retournent.
Alignement IA (débat éthique structurant). Le débat sur l’alignement des intelligences artificielles avec les valeurs humaines — comment s’assurer qu’une IA poursuit bien les objectifs qu’on lui assigne — est devenu public en 2024-2025 avec les prises de position de chercheurs (Hinton, Bengio, Russell). La communication des éditeurs d’IA doit prendre ce débat au sérieux : les formulations qui semblent le minimiser exposent à des accusations de légèreté face à des risques réels. L’humilité technique et la transparence sur les dispositifs d’alignement construisent une crédibilité.
App store (gardien commercial). Les app stores — Apple App Store, Google Play Store — sont des gardiens commerciaux dont les décisions conditionnent la survie des éditeurs d’applications. Un rejet de mise à jour, une suspension, une nouvelle règle commerciale, deviennent des événements communicationnels pour l’éditeur. La négociation avec les app stores se fait en confidentialité ; sa judiciarisation ou médiatisation (Epic vs Apple) est coûteuse. La diplomatie avec les gardiens reste la norme, la contestation publique l’exception préparée.
ARCOM (autorité montante). L’ARCOM, née de la fusion CSA-Hadopi et renforcée par le DSA, est devenue un régulateur central des plateformes en ligne en France. Ses signalements aux plateformes sur les contenus terroristes, pédopornographiques, haineux, ont un caractère obligatoire. La relation avec l’ARCOM doit être construite dans le dialogue : les plateformes qui contestent systématiquement ses décisions s’exposent à des sanctions croissantes. Les procédures de transparence annuelle imposées par l’ARCOM structurent désormais le calendrier de communication des plateformes.
Audit algorithmique (contrainte nouvelle). Les audits algorithmiques, imposés par le DSA pour certaines plateformes et par l’IA Act pour certains systèmes d’IA, sont une contrainte nouvelle qui change la communication technique. Les rapports d’audit deviennent des documents publics ou semi-publics scrutés. La communication doit articuler transparence (exigée) et protection des secrets d’affaires (légitime). Les audits défavorables non suivis de mesures correctives visibles se retournent.
Autorité de la concurrence (surveillance plateformes). L’Autorité de la concurrence française et la Commission européenne scrutent les pratiques des plateformes : abus de position dominante, auto-préférencement, acquisitions prédatrices. Leurs enquêtes (Google Shopping, Amazon Marketplace, Apple App Store) sont des événements pluriannuels. La communication doit accepter le cadre concurrentiel : les plateformes qui défendent globalement leurs pratiques sans distinguer ce qui est problématique de ce qui ne l’est pas fragilisent leurs positions.
B
Bêta test (phase publiquement exposée). Les versions bêta rendues publiques pour tester une fonctionnalité ou un produit nouveau sont des phases exposées : bugs, comportements inattendus, captures d’écran dommageables. La communication doit préparer ce moment avec humilité : annoncer explicitement le statut bêta, créer des canaux de remontée, réagir rapidement aux défaillances. Les bêtas présentées comme des produits finis créent des déceptions disproportionnées. La frontière entre bêta et lancement officiel est communicationnelle autant que technique.
Biais algorithmique (accusation récurrente). Les accusations de biais algorithmique — discriminations raciales, de genre, socio-économiques dans les décisions automatisées — sont devenues récurrentes. Le scandale Apple Card en 2019, les biais constatés dans les IA de recrutement, les discriminations dans les systèmes de crédit, ont créé une jurisprudence médiatique. La communication ne peut pas contester globalement l’existence de biais : ils sont inhérents aux données d’entraînement. La voie qui tient reconnaît le risque structurel et démontre les dispositifs de détection et de correction mis en place.
C
Cash burn (inquiétude structurelle). Le cash burn — rythme de consommation de trésorerie par une scale-up non encore rentable — est un indicateur scruté qui peut devenir un sujet public quand une crise de financement menace. Les formulations publiques doivent être cohérentes avec les informations transmises aux investisseurs : les écarts entre optimisme communiqué et réalité documentée dans les due diligences créent des contentieux. Le cash burn n’est pas en soi un aveu d’échec — la plupart des scale-ups y passent — mais ses prolongations non justifiées deviennent préoccupantes.
Churn (indicateur révélateur). Le churn — taux d’attrition des utilisateurs ou abonnés — est un indicateur qui, quand il dégrade, signale souvent une crise plus profonde : mécontentement utilisateur, concurrence, désalignement produit-marché. Sa révélation dans les médias (par une fuite, une publication financière, un article d’analyste) peut accélérer la dégradation. La communication doit gérer cet indicateur avec précaution : les formulations qui masquent un churn élevé se retournent quand les chiffres sortent publiquement.
Classement contesté (comparateur scruté). Les plateformes qui produisent des classements — comparateurs de prix, notations de produits, rankings de restaurants, de médecins, d’établissements scolaires — sont régulièrement accusées de partialité, d’opacité méthodologique, de favoritisme. Les professionnels mal classés peuvent saisir la justice ou mobiliser les médias. La communication doit pouvoir démontrer la neutralité méthodologique, la transparence des critères, l’indépendance vis-à-vis des intérêts commerciaux. Les classements peu documentés sont fragiles en crise.
CNIL (interlocuteur central). Au-delà de son rôle de régulateur des données traité ailleurs, la CNIL intervient comme interlocuteur central pour toutes les questions d’usage de données par les plateformes et les IA. Ses mises en demeure publiques sur des entreprises numériques (Clearview AI, Shein, d’autres) sont des événements communicationnels majeurs. La relation avec la CNIL doit combiner respect institutionnel et dialogue technique constant. Les plateformes qui ne dialoguent pas régulièrement avec la CNIL découvrent en crise qu’elles n’ont pas construit les relations qui auraient permis un désamorçage.
Concentration sectorielle (critique antitrust). Les critiques sur la concentration sectorielle du numérique — quelques acteurs dominent des pans entiers de l’économie — structurent les politiques antitrust. Elles affectent les stratégies d’acquisition et les communications financières. Les acteurs dominants doivent assumer leur position sans triomphalisme : les formulations qui se réjouissent de parts de marché massives nourrissent les enquêtes antitrust. La posture qui protège reconnaît la responsabilité particulière des acteurs systémiques.
Conditions générales (corpus scruté). Les conditions générales d’utilisation et de service sont devenues un corpus scruté par les associations de consommateurs, les régulateurs, les médias spécialisés. Leurs modifications, leurs ambiguïtés, leurs clauses potentiellement abusives deviennent des sujets. Les modifications mal communiquées (sans alerte proactive des utilisateurs, sans explication pédagogique) créent des crises qui auraient pu être évitées. La publication d’un résumé accessible en parallèle du texte juridique est devenue un standard.
Contenu haineux (modération obligatoire). La modération des contenus haineux est devenue une obligation légale encadrée par le DSA, la loi Avia partiellement censurée, et d’autres cadres nationaux. Les plateformes doivent démontrer des dispositifs effectifs : moyens de signalement, traitement en délais, transparence sur les retraits. Les défaillances documentées (contenus haineux maintenus malgré signalements, retraits de contenus légitimes sous couvert de modération) créent des crises spécifiques. La communication doit publier des rapports de transparence crédibles.
Contenu illégal (retrait rapide obligé). Les contenus illégaux — pédopornographie, terrorisme, incitation à la haine caractérisée — doivent être retirés dans des délais très courts imposés par la réglementation (une heure pour le terrorisme selon le règlement TCO). Les défaillances sont lourdes : sanctions, scandales médiatiques, perte de confiance des utilisateurs. La communication des plateformes doit démontrer des dispositifs proactifs (filtres, équipes dédiées, coopération avec les autorités) plutôt qu’une réaction passive aux signalements.
D
Défaillance partielle (service dégradé). Les défaillances partielles — fonctionnalité qui ne marche plus, région qui perd l’accès, catégorie d’utilisateurs affectée — sont des crises moins visibles que les pannes totales mais qui peuvent s’étirer dans le temps. Leur communication doit être précise : quelle fonctionnalité, quelle zone, quel délai de résolution. Les status pages publics (pages de statut technique) sont devenues un standard attendu. Leur absence ou leur opacité nourrit les soupçons.
Dépendance utilisateur (sujet éthique émergent). Les critiques sur la dépendance créée par les services numériques — scroll infini, notifications conçues pour capter l’attention, mécaniques de récompense inspirées des jeux de hasard — touchent particulièrement les plateformes destinées aux jeunes. Les débats sur l’« économie de l’attention » (Tristan Harris, Center for Humane Technology) deviennent des angles d’attaque des régulateurs. La communication doit prendre position sur ces sujets éthiques plutôt que les contourner. Les plateformes qui introduisent des fonctionnalités de modération d’usage (time limits, rappels) peuvent valoriser ces dispositifs.
Dérapage IA (incident public). Les dérapages d’IA mises à disposition du public — chatbots produisant des contenus racistes (Tay de Microsoft en 2016), générateurs d’images créant des contenus inappropriés, assistants donnant des conseils dangereux — sont devenus récurrents. Leur communication doit être rapide : reconnaissance de l’incident, désactivation temporaire si nécessaire, publication des mesures correctives. Les formulations qui minimisent (« la plupart des réponses sont bonnes ») sont retournées par la viralité des cas problématiques.
DSA (cadre européen structurant). Le Digital Services Act, entré en application complète en 2024, structure la régulation européenne des plateformes. Ses obligations — rapports de transparence, modération renforcée, accès des chercheurs aux données — transforment la communication des acteurs concernés. Les plateformes qualifiées de « très grandes » font l’objet d’obligations renforcées. La communication doit maîtriser le vocabulaire DSA (VLOP, VLOSE, risques systémiques, évaluation des risques) pour dialoguer avec les régulateurs et les parties prenantes.
DMA (cadre gatekeeper). Le Digital Markets Act désigne certains acteurs comme « contrôleurs d’accès » soumis à des obligations spécifiques : interopérabilité, interdiction d’auto-préférencement, portabilité des données. Les acteurs concernés (Alphabet, Apple, Meta, Microsoft, Amazon, ByteDance) doivent adapter leurs produits et leurs communications. Contester publiquement le statut de gatekeeper est coûteux et rarement gagnant. L’acceptation du cadre, même en dialogue technique sur sa mise en œuvre, est la posture qui préserve.
E
Écosystème développeur (communauté à ménager). Les écosystèmes de développeurs qui construisent sur les plateformes (App Store, Google Play, APIs diverses) sont des communautés dont la mobilisation peut peser en crise. Un changement de règles jugé injuste (hausse de commission, retrait d’une fonctionnalité API, modification contractuelle) peut déclencher des mouvements visibles. La communication avec les développeurs doit être directe, préalable aux changements, avec des canaux dédiés. Ignorer cette communauté est une erreur stratégique qui peut se manifester lors d’un procès antitrust par des témoignages accumulés.
Entraînement des modèles (données contestées). L’entraînement des modèles d’IA sur des corpus massifs soulève des questions devenues juridiques : droits d’auteur des œuvres utilisées, consentement des utilisateurs dont les données ont servi, traçabilité des sources. Les contentieux se multiplient (NYT vs OpenAI, Getty Images vs Stability AI). La communication des éditeurs d’IA doit être précise sur les sources d’entraînement, les licences obtenues, les droits respectés. Les formulations vagues sur le « web public » ne suffisent plus devant des juges qui demandent des preuves.
Événement OpenAI type (secousse sectorielle). Certaines crises en tech deviennent des événements sectoriels qui dépassent l’acteur concerné : le renvoi-réintégration de Sam Altman en novembre 2023 a secoué tout le secteur de l’IA. Les autres acteurs sont sollicités pour commenter, rassurer, se positionner. La communication doit alors articuler solidarité sectorielle mesurée et différenciation de sa propre gouvernance. Les commentaires opportunistes sur les difficultés d’un concurrent se retournent quand l’opportuniste connaît lui-même une crise.
F
Feature abandonnée (contestation utilisateurs). L’abandon d’une fonctionnalité utilisée par une partie des utilisateurs — même minoritaire — crée des contestations organisées : pétitions, articles de blog influents, mobilisations sur les réseaux sociaux. La communication doit préparer l’abandon : annonce préalable, explication des raisons, alternatives proposées, délai de transition. Les features retirées sans préavis créent des sentiments de trahison qui peuvent durer des années dans la communauté utilisateur.
Fondateur contesté (figure centrale). Les fondateurs de tech sont souvent des figures centrales dont la parole publique engage la marque : Elon Musk, Zuckerberg, Bezos. Leurs dérapages personnels sur les réseaux sociaux deviennent des crises d’entreprise. La communication doit arbitrer entre protéger la personne (si elle le permet) et préserver l’entreprise. Les fondateurs qui refusent la discipline communicationnelle, comme les grands dirigeants doivent parfois en accepter, créent des tensions permanentes avec leurs équipes. Certains conseils d’administration ont fini par imposer un cadre.
G
Gatekeeper (statut imposé). Le statut de gatekeeper attribué par la Commission européenne est une qualification à portée juridique forte qui impose des obligations. Les entreprises désignées peuvent tenter de faire reconnaître une erreur de qualification mais leurs contestations sont limitées dans l’espace public. La communication doit assumer le statut sans s’y laisser réduire : être gatekeeper ne définit pas la mission de l’entreprise, c’est une qualification réglementaire à un instant donné. Les acteurs qui intègrent ce cadre comme élément de leur responsabilité publique préparent mieux leur relation aux régulateurs.
Générative (crise spécifique IA). Les crises liées aux IA génératives — images, textes, voix, vidéos — ont une nature spécifique : productions qui peuvent être attribuées à la marque même quand elles viennent d’utilisateurs. La communication doit distinguer ce qui est produit par le modèle sous la responsabilité éditoriale de l’entreprise, et ce qui est produit par les utilisateurs via l’outil. Cette distinction est souvent mal comprise médiatiquement et la pédagogie est nécessaire pour éviter les amalgames.
H
Hallucination (défaillance structurelle IA). L’hallucination — quand une IA produit des affirmations factuellement fausses avec assurance — est une défaillance structurelle des modèles génératifs de 2026. La communication des éditeurs doit l’intégrer honnêtement : les hallucinations ne sont pas des bugs à corriger mais des limites actuelles du paradigme. Les communications qui laissent croire à une fiabilité factuelle absolue se retournent à chaque cas révélé. La pédagogie sur les usages appropriés (ne pas se fier pour les faits vérifiables, double vérification) est un investissement de long terme.
Hype cycle (attention à gérer). Le hype cycle décrit par Gartner — pic d’enthousiasme, creux de la désillusion, plateau de productivité — s’applique à la plupart des innovations tech. La communication doit gérer ce cycle : éviter d’amplifier le pic (qui prépare la chute), accompagner la traversée du creux, valoriser le plateau. Les entreprises qui ont amplifié le hype de leur produit construisent des chutes brutales quand le cycle se retourne.
I
IA Act (cadre européen structurant). Le règlement européen sur l’intelligence artificielle (IA Act) classifie les systèmes d’IA selon leur niveau de risque et impose des obligations graduées. Sa mise en application progressive depuis 2025 change la communication des éditeurs d’IA : qualification des systèmes, documentation technique, marquages, responsabilités. La communication doit utiliser précisément le vocabulaire du règlement (risque inacceptable, risque élevé, risque limité, risque minimal) pour démontrer la maîtrise du cadre.
Incident de modération (bavure manifeste). Les incidents de modération — contenus légitimes retirés par erreur, comptes d’activistes ou journalistes suspendus à tort, images artistiques censurées — créent des crises où la plateforme apparaît à la fois censeur et incompétente. La communication doit reconnaître les erreurs individuelles, expliquer les dispositifs de recours, et améliorer les processus. Les formulations qui défendent globalement les choix de modération sans reconnaître les cas individuels problématiques sont retournées.
Interface trompeuse (dark pattern). Les « dark patterns » — interfaces conçues pour manipuler les choix des utilisateurs (consentements forcés, désabonnements cachés, achats par inadvertance) — sont désormais sanctionnés par les régulateurs (CNIL, DGCCRF, Commission européenne). Leur documentation par des chercheurs (notamment l’équipe de Harry Brignull) crée des références médiatiques. La communication doit accepter l’évolution normative : ce qui était toléré il y a cinq ans peut devenir aujourd’hui sanctionné. Les plateformes qui tentent de défendre leurs dark patterns subissent des dégradations d’image durables.
Investigations journalistiques (nouveau genre). Un journalisme tech d’investigation s’est développé — L’Informé, Le Monde avec sa rubrique dédiée, Pixels, Numerama, L’ADN, Rest of World, 404 Media aux États-Unis. Leurs enquêtes techniques, sourcées, documentées, créent des crises spécifiques difficiles à contester sur le fond. La communication doit traiter ces journalistes avec le même sérieux que la presse économique ou politique : leur expertise technique rend inopérantes les formulations évasives qui fonctionnaient face à des journalistes généralistes.
L
Lancement raté (première impression durable). Les lancements ratés de produits tech — pannes massives au premier jour, fonctionnalités manquantes, bugs bloquants — construisent des premières impressions qui résistent aux améliorations ultérieures. La communication doit parfois reconnaître l’échec du lancement pour pouvoir reconstruire : les tentatives de sauvetage par la défense face à des défaillances évidentes amplifient la crise. Les relances de produits ratés sont parfois la seule option : rebrand, reset narratif, démonstration d’un nouveau cycle.
Licorne déchue (chute médiatisée). Les licornes — scale-ups valorisées plus d’un milliard de dollars — qui chutent dans leur valorisation ou dans leur image créent des crises médiatiques amplifiées. Theranos, FTX, WeWork, sont des références qui orientent les grilles de lecture. Toute licorne en difficulté est lue à travers ces précédents. La communication doit distinguer difficulté conjoncturelle (fréquente, souvent surmontable) et échec structurel (plus rare mais définitif). Les formulations qui défendent globalement la trajectoire sans reconnaître les difficultés réelles sont mal reçues.
M
Marketplace contestée (intermédiaire exposé). Les marketplaces — Amazon, Cdiscount, ManoMano, Veepee, Vinted, Leboncoin — sont des intermédiaires exposés aux défaillances de leurs vendeurs tiers : produits non conformes, arnaques, contrefaçons. Leur statut juridique (hébergeur vs éditeur) est scruté. La communication doit assumer une responsabilité graduée : la marketplace n’est pas responsable de chaque vente, mais elle doit démontrer des dispositifs de contrôle et de recours. Les plateformes qui se réfugient derrière le statut d’hébergeur sans dispositifs réels sont en décalage avec les attentes actuelles.
Modèle fondation (responsabilité nouvelle). Les modèles fondation (foundation models) — GPT, Gemini, Claude, Mistral, Llama — imposent une responsabilité nouvelle à leurs éditeurs : leurs biais, leurs capacités, leurs usages possibles deviennent structurants pour l’ensemble des applications qui s’appuient dessus. La communication doit traiter cette responsabilité avec la même gravité qu’une entreprise pharmaceutique traite la mise à disposition d’une molécule active. Les formulations marketing légères sur les capacités des modèles fondation sont désormais scrutées.
Monétisation contestée (publicité ciblée). Les modèles de monétisation par la publicité ciblée sont contestés sur leur respect de la vie privée, leur influence sur les contenus, leur impact psychologique. Le passage à des modèles alternatifs (abonnements, micro-paiements) change le métier. La communication doit pouvoir justifier le modèle économique adopté sans paraître se contenter de contraintes techniques. Les explications pédagogiques sur les compromis (vie privée vs gratuité d’accès) sont utiles.
N
Notation app (vitrine commerciale). Les notations des applications dans les app stores — étoiles, commentaires — sont des vitrines commerciales dont la dégradation est immédiate. Une campagne de notation négative (organique ou orchestrée) peut faire chuter une application dans les classements. La communication doit disposer de processus de réponse aux avis, de dispositifs de signalement des avis abusifs, et de stratégies pour encourager les avis positifs sans tomber dans la manipulation (achat d’avis interdit). La surveillance quotidienne des notations fait partie de la veille crise.
Nouveau service en panne (lancement critique). Les pannes survenant lors du lancement d’un nouveau service — surcharge par l’afflux d’utilisateurs, bugs non détectés en test, configuration inadéquate — sont particulièrement dommageables : elles gâchent l’investissement marketing. La communication doit reconnaître rapidement, informer des délais, compenser éventuellement les utilisateurs frustrés. Les lancements réalisés sans stress tests réalistes produisent des crises qui étaient prévisibles.
O
Obsolescence logicielle (sujet consommateur). L’obsolescence logicielle — fin des mises à jour de sécurité, incompatibilités imposées, abandon de modèles fonctionnels — est devenue un sujet de consommateur avec des associations spécialisées (HOP notamment). Elle est parfois sanctionnée par la DGCCRF (Apple en 2020). La communication des éditeurs doit expliquer les cycles de vie annoncés, les raisons techniques, les alternatives offertes. Les abandons brutaux, sans préavis, sont retournés comme preuves d’obsolescence programmée.
Open source conflit (gouvernance fragile). Les conflits dans les communautés open source — changement de licence, fork, départ de mainteneurs — affectent les entreprises qui s’appuient sur ces logiciels. Les cas emblématiques (Elasticsearch, MongoDB, Redis, HashiCorp changeant de licence) ont créé des précédents. La communication doit respecter les communautés open source qui ont des cultures propres : les justifications strictement commerciales sont mal reçues dans des écosystèmes attachés aux principes du logiciel libre.
P
Panne de service (exposition massive). Les pannes de services en ligne — AWS, Cloudflare, Facebook-Instagram-WhatsApp en octobre 2021, incidents récurrents des grandes plateformes — créent des expositions massives en quelques minutes. La communication doit disposer de plans éprouvés : pages de statut proactives, communication multi-canal (qui fonctionne même si le service principal est en panne), personnel dédié à l’information, équipes techniques visibles dans leur mobilisation. Les pannes silencieuses sont presque aussi mal perçues que les pannes longues.
Plateforme intermédiaire (qualification juridique). La qualification juridique de plateforme intermédiaire — hébergeur selon la directive e-commerce, éditeur dans certains cas — structure la responsabilité et donc la communication. Le DSA a introduit des niveaux intermédiaires (plateformes en ligne, très grandes plateformes). La communication doit maîtriser ces catégories pour dialoguer avec les régulateurs et pour justifier sa propre posture. Les plateformes qui contestent globalement leur qualification sans proposer une alternative claire fragilisent leur position.
Prix modèle API (sujet commercial). Les prix des modèles d’IA accessibles via API — tarifs de GPT, Claude, Gemini, Mistral — sont des sujets commerciaux qui peuvent devenir publics : hausses mal expliquées, réductions soudaines, changements de conditions. Les écosystèmes de développeurs qui dépendent de ces API subissent durement les changements tarifaires brutaux. La communication doit préparer les évolutions : annonces préalables, calendriers de transition, alternatives pour les clients historiques.
Protection des mineurs (cadre imposé). La protection des mineurs sur les plateformes numériques est devenue un cadre imposé par des réglementations multiples (Children’s Online Privacy Protection Act américain, cadres européens, lois nationales françaises sur la majorité numérique). Les défaillances (comptes de mineurs tolérés sur les réseaux sociaux, absence de vérification d’âge, expositions à contenus inappropriés) sont lourdement sanctionnées. La communication doit démontrer des dispositifs effectifs, pas des mentions symboliques. Les cas révélés de plateformes laxistes créent des crises durables.
Q
Quadrature du Net (vigie associative). La Quadrature du Net et d’autres associations spécialisées (La Ligue des droits de l’Homme sur les données, Exodus Privacy, Association des victimes du numérique) sont des vigies dont les publications peuvent ouvrir des crises. Leurs analyses techniques sont rigoureuses et mobilisables par les régulateurs. La communication des plateformes ne peut pas les ignorer : les attaquer frontalement se retourne. Le dialogue, même distant, permet souvent de désamorcer les analyses à charge avant qu’elles ne soient publiées.
R
Régulateur multiple (navigation complexe). Les entreprises tech doivent naviguer entre régulateurs multiples : CNIL pour les données, ARCOM pour les contenus, Autorité de la concurrence pour les marchés, DGCCRF pour les pratiques commerciales, Commission européenne pour DSA/DMA/IA Act. Chaque régulateur a sa culture, son calendrier, ses priorités. La communication doit coordonner ces relations sans créer de contradictions entre les discours adressés à chacun. Les écarts entre ce qui est dit à la CNIL et ce qui est dit à l’ARCOM peuvent être fatals.
Roadmap contestée (utilisateurs déçus). Les roadmaps produits — ce qui est annoncé, ce qui est livré, ce qui est abandonné — sont des engagements envers les utilisateurs professionnels et les développeurs. Leur non-respect crée des crises de confiance. La communication doit préférer les annonces prudentes sur les roadmaps aux annonces enthousiastes qui ne tiendront pas. Les reports et abandons doivent être expliqués honnêtement, pas dissimulés sous de nouvelles annonces pour détourner l’attention.
S
Scale-up en crise (croissance douloureuse). Les crises des scale-ups — levées de fonds ratées, réorganisations douloureuses, licenciements massifs, changements de direction — sont devenues récurrentes en 2023-2025 avec le resserrement des financements. Leur communication mobilise plusieurs publics : salariés, clients, investisseurs, médias. L’équilibre est difficile entre la reconnaissance des difficultés et la préservation de la capacité à lever à nouveau. Les scale-ups qui traversent bien leurs crises démontrent une capacité à reconnaître sans s’effondrer.
Signalement en masse (outil détourné). Les systèmes de signalement proposés par les plateformes peuvent être détournés à des fins politiques ou commerciales : campagnes coordonnées pour faire supprimer des contenus gênants, signalements massifs de comptes d’opposants, déclenchement d’algorithmes par volume artificiel. La communication doit démontrer la capacité à détecter ces détournements et à ne pas y céder mécaniquement. Les plateformes qui suppriment automatiquement sur seuil de signalements sont accusées d’être instrumentalisées.
Start-up nation (récit national fragilisé). Le récit « start-up nation » porté politiquement en France depuis 2017 a construit un écosystème dont les difficultés récentes — licenciements dans les scale-ups, baisses de valorisations, fermetures médiatisées — fragilisent le discours global. Les acteurs tech français doivent communiquer dans ce contexte politique : leur succès est mobilisé comme preuve du récit, leurs difficultés comme preuve des limites. La communication doit préserver l’autonomie de l’entreprise par rapport au discours politique.
Suspension de compte (contentieux récurrent). Les suspensions de comptes d’utilisateurs — pour violation des conditions d’utilisation, signalements, détection automatique — créent des contentieux individuels qui peuvent devenir collectifs ou médiatiques quand la personne suspendue est connue. La communication doit pouvoir justifier chaque cas avec précision (quelle règle violée, quels éléments de preuve) tout en respectant la vie privée de la personne. Les suspensions arbitraires ou expliquées par des formulations génériques sont largement retournées.
T
Test A/B éthique (sujet émergent). Les tests A/B — exposition de groupes d’utilisateurs à des versions différentes pour tester lesquelles performent mieux — sont devenus un sujet éthique quand ils manipulent des variables sensibles : émotion (expérience Facebook sur l’humeur des utilisateurs en 2014), décisions d’achat, biais cognitifs. Leur documentation publique par des chercheurs ou lanceurs d’alerte crée des crises. La communication doit accepter le cadre éthique émergent : les tests qui manipulent à l’insu des utilisateurs sont de plus en plus mal acceptés.
Transparence algorithmique (exigence nouvelle). La transparence algorithmique est devenue une exigence réglementaire et sociétale : comment fonctionne l’algorithme qui recommande, classe, modère. Les publications techniques des plateformes (cartes de système, model cards, explications grand public) répondent à cette exigence. La communication doit produire des documents accessibles pour les non-spécialistes sans perdre la rigueur. Les transparences partielles (« nous expliquons quelques critères sur les dizaines utilisés ») ne suffisent plus.
U
Uptime (promesse technique contractuelle). L’uptime — taux de disponibilité du service — est une promesse technique souvent contractualisée avec des clients professionnels (SLA). Les défaillances par rapport aux engagements déclenchent des compensations et des crises de confiance. La communication doit publier les statistiques d’uptime honnêtement : les formulations marketing (« 99,9 % » affiché sans détailler les méthodes de calcul) sont démystifiées par les plateformes spécialisées de monitoring. L’honnêteté technique construit une crédibilité dans la durée.
V
Viralité non désirée (produit dépassé). Certains produits ou fonctionnalités connaissent une viralité non désirée qui dépasse la capacité de l’entreprise à les soutenir : serveurs qui ne tiennent pas, équipes de support débordées, régulateurs qui se saisissent. ChatGPT a connu ce moment en novembre-décembre 2022. La communication doit gérer le succès comme une crise potentielle : communication sur les délais d’attente, priorité aux utilisateurs professionnels, limitations temporaires assumées. Les succès mal gérés détruisent la qualité perçue avant même que le produit ne soit stabilisé.
Z
Zone grise juridique (innovation exposée). Les innovations tech évoluent souvent dans des zones grises juridiques avant que les régulateurs ne se saisissent : IA génératives avant l’IA Act, crypto-actifs avant MiCA, plateformes de VTC avant les encadrements nationaux, ride-sharing avant les régulations municipales. La communication dans ces zones grises doit être particulièrement prudente : ce qui est toléré aujourd’hui peut être interdit demain, et les communications antérieures peuvent être utilisées contre l’entreprise. La posture la plus sûre est l’auto-régulation préalable aux régulations imposées : elle construit une crédibilité utile pour la suite.