Actualités

La réputation à l’ère algorithmique

sos

Quand on tape un nom

Il y a un geste que tout le monde fait, plusieurs fois par semaine, sans y prêter attention. Un nom est mentionné dans une réunion, dans un dîner, dans une lecture, dans une conversation. On revient à son bureau, ou à son téléphone, et on tape ce nom dans la barre de recherche. En une seconde, une dizaine de résultats apparaissent. Un encart latéral, qu’on appelle le « knowledge panel », résume qui est cette personne. Des suggestions de recherche complémentaires s’affichent, suggérant ce que les autres internautes ont cherché à propos d’elle. On parcourt rapidement la première page, parfois la deuxième, puis on referme l’onglet et on retourne à autre chose.

Ce geste, devenu si banal qu’on n’y pense plus, est aujourd’hui le principal lieu où se construit la réputation d’une personne ou d’une organisation analyse l’expert en communication de crise Florian Silnicki, Président Fondateur de LaFrenchCom.

Cette affirmation peut sembler exagérée. Elle ne l’est pas. Les médias traditionnels continuent d’exister, le bouche-à-oreille reste actif, les communautés professionnelles ont leurs propres circuits de réputation. Mais aucune de ces sources n’est consultée avec la systématicité du moteur de recherche. Avant un rendez-vous d’affaires, on tape le nom. Avant un entretien d’embauche, on tape le nom. Avant un investissement, on tape le nom. Avant une rencontre amoureuse parfois, on tape le nom. Cette pratique généralisée fait des résultats de recherche le filtre par lequel passent, désormais, presque toutes les premières impressions à l’égard d’une personne ou d’une organisation que l’on ne connaît pas directement.

Notre métier ne peut pas faire l’économie d’une réflexion approfondie sur ce que cette réalité change. Cet article voudrait poser quelques jalons, sans prétendre à l’exhaustivité technique, sur la manière dont la réputation s’organise désormais dans un environnement structuré par des dispositifs algorithmiques.

La permanence comme nouveau régime

La première transformation, dont nous avons déjà parlé dans notre article sur le temps long, mérite d’être reprise pour elle-même : la permanence des traces.

Avant le numérique, l’information avait une durée de vie. Un article paru dans un journal du soir était oublié le lendemain ; un reportage télévisé restait dans la mémoire de ceux qui l’avaient vu, et nulle part ailleurs ; les archives existaient, mais leur consultation demandait un effort suffisant pour qu’elles restent largement dormantes. La mémoire collective était sélective, et elle oubliait beaucoup. Cet oubli n’était pas seulement un défaut ; il était aussi une protection — la possibilité, pour une personne ou une organisation, d’évoluer sans porter perpétuellement le poids de tout ce qui avait été dit ou écrit à son sujet.

Cette protection n’existe plus. Tout ce qui paraît reste accessible, à la portée d’une recherche. Un article de 2003 peut être consulté en 2026 avec la même facilité qu’un article paru hier. La trace ne disparaît pas par accumulation comme elle le faisait autrefois ; elle se sédimente sans que rien n’en efface les couches inférieures. Cette permanence change profondément la manière dont la réputation s’établit et se défait.

Elle change le rapport au passé. Une déclaration faite il y a quinze ans, dans un contexte que personne ne se rappelle, peut ressurgir hors contexte et venir occuper le premier plan d’un débat actuel. Une photographie d’étudiant, prise à une époque où les codes étaient différents, peut être brandie comme la preuve d’une faute permanente. Un article rétracté, mais dont la rétractation a été moins lue que l’original, continue de circuler comme s’il n’avait pas été contesté. Cette colonisation du présent par les vestiges du passé est l’une des caractéristiques majeures de l’environnement contemporain.

Elle change aussi le rapport à l’avenir. Lorsque l’on sait que tout ce que l’on dit ou fait sera potentiellement accessible, indéfiniment, on n’agit plus de la même manière. Cette inhibition généralisée a des effets sociologiques que les sciences sociales commencent à peine à mesurer. Pour ce qui concerne notre métier, elle signifie que nous accompagnons des clients qui vivent dans un environnement où aucune erreur n’est jamais entièrement effaçable, et où la prudence devient, par construction, l’une des compétences professionnelles les plus précieuses.

Les hiérarchies invisibles du moteur

La deuxième transformation tient à ce que le moteur de recherche ne se contente pas de stocker l’information. Il la hiérarchise. Il décide, par des mécanismes que les utilisateurs ne maîtrisent pas et que les éditeurs eux-mêmes connaissent imparfaitement, ce qui apparaît sur la première page et ce qui est relégué dans les profondeurs où plus personne ne va voir.

Cette hiérarchisation algorithmique a des effets considérables sur la perception publique. Une étude classique sur le comportement des utilisateurs montre que la grande majorité des clics se concentrent sur les trois ou quatre premiers résultats, et qu’une part marginale seulement va au-delà de la première page. Concrètement, cela signifie que ce qui ne figure pas dans les dix premiers résultats sur un nom n’existe presque pas, du point de vue de la perception publique. Un article élogieux paru dans une revue spécialisée mais référencé en septième page n’a pas, sur la réputation, l’effet d’un article hostile classé en deuxième position.

Cette hiérarchie n’est pas le fruit d’un hasard ni d’une malveillance. Elle obéit à des logiques techniques — autorité du domaine, fraîcheur de la publication, comportement des utilisateurs, signaux de qualité, et un grand nombre d’autres paramètres qui évoluent en permanence. Ces logiques sont neutres dans leur principe, mais elles produisent des effets qui ne le sont pas. Elles favorisent, par exemple, les sources qui produisent beaucoup de contenu, ce qui avantage les médias établis sur les voix individuelles. Elles favorisent les contenus récents sur les anciens, ce qui rend une polémique nouvelle plus visible qu’une carrière ancienne. Elles favorisent les formulations qui captent l’attention, ce qui privilégie les titres clivants sur les analyses nuancées.

Comprendre cette hiérarchisation est, pour notre métier, une compétence technique qui s’est imposée progressivement. Il ne s’agit pas, et nous le redirons, de manipuler le moteur de recherche par des moyens déloyaux ; il s’agit de comprendre comment il fonctionne pour en tenir compte dans la stratégie de communication globale. Une prise de parole qui ne se traduit par aucune trace référençable n’a pas, sur la réputation numérique, l’effet qu’elle aurait pu avoir. Une publication d’apparence modeste, mais qui s’inscrit dans des circuits de référencement solides, peut avoir un effet considérable. Cette différence n’est pas une question de qualité éditoriale ; elle est une question de compatibilité avec les hiérarchies que les algorithmes produisent.

La nouvelle couche : les modèles génératifs

La transformation la plus récente, et celle dont les effets commencent à peine à se mesurer, tient à l’arrivée massive des modèles d’intelligence artificielle générative dans le quotidien des utilisateurs. Lorsque quelqu’un cherche aujourd’hui à se renseigner sur une personne ou une organisation, il ne tape plus seulement un nom dans un moteur de recherche ; il pose, de plus en plus, une question à un assistant conversationnel — qui lui répond directement, sans renvoyer à des sources que l’utilisateur consulterait lui-même.

Cette substitution est une rupture. Là où le moteur de recherche présentait une liste de sources entre lesquelles l’utilisateur arbitrait, l’assistant conversationnel produit une réponse synthétique, qui est elle-même une lecture des sources disponibles. Cette synthèse est rarement signée. Elle est rarement contestable. Elle est rarement fondée sur les sources les plus récentes, parce que les modèles sont entraînés sur des corpus dont la mise à jour est nécessairement décalée. Et elle est, pour une part de plus en plus grande des utilisateurs, le premier — parfois le seul — contact avec ce qu’on dit de la personne ou de l’organisation concernée.

Cette nouvelle couche soulève plusieurs questions pour notre métier.

La question des biais d’entraînement. Les modèles ont été entraînés sur des corpus qui reflètent l’état de l’information à un moment donné. Si une personne a été mise en cause publiquement il y a quatre ans, et qu’elle a depuis été innocentée par une décision de justice, le modèle peut continuer à restituer la mise en cause comme un fait central, simplement parce que les articles évoquant cette mise en cause sont plus nombreux dans le corpus que ceux relatant l’innocence. Le décalage temporel produit, mécaniquement, une distorsion qui peut être considérable.

La question de la précision factuelle. Les modèles génératifs sont sujets à ce qu’on appelle des « hallucinations » : ils peuvent produire des affirmations factuelles qui ne sont étayées par aucune source réelle, simplement parce qu’elles sont plausibles dans le contexte de la requête. Un assistant peut affirmer qu’une personne a été condamnée alors qu’elle ne l’a pas été, ou attribuer à une organisation des positions qu’elle n’a jamais prises. Ces hallucinations sont plus rares dans les modèles récents que dans les premiers, mais elles n’ont pas disparu, et elles peuvent avoir des effets dommageables que les utilisateurs ne savent pas évaluer.

La question de la composition des sources. Lorsqu’un modèle restitue ce qu’il sait d’une personne, il agrège les sources sans toujours en hiérarchiser la fiabilité. Une enquête sérieuse parue dans un grand quotidien et un commentaire approximatif paru sur un blog peuvent contribuer à parts égales à la synthèse produite. Cette confusion des registres pose, pour la défense réputationnelle, des questions nouvelles que les outils traditionnels ne résolvent pas.

La question de la vérifiabilité. Lorsqu’un utilisateur reçoit une réponse synthétique, il a rarement le réflexe d’aller vérifier les sources, à supposer même que celles-ci soient indiquées. Il prend, le plus souvent, la réponse pour acquise. Cette confiance accordée à un dispositif qui ne fait que probabiliser des associations de mots a des effets sur la perception publique qui sont, pour le moment, mal mesurés.

Notre métier doit, sans céder ni à la panique ni à l’indifférence, s’adapter à cette nouvelle couche. Cela suppose de comprendre comment les modèles fonctionnent. De savoir, autant que possible, ce qu’ils restituent à propos de nos clients. D’identifier les corrections possibles, lorsqu’elles existent, par les canaux que les éditeurs de modèles ouvrent progressivement. Et, plus profondément, d’inscrire ce paramètre dans les stratégies de long terme — parce qu’à mesure que les corpus se renouvellent, ce qui aura été publié et indexé pendant la phase actuelle aura un effet structurant sur les réponses que les modèles produiront pendant des années.

Les suggestions automatiques

Une autre dimension, moins commentée mais essentielle, mérite d’être évoquée : les suggestions automatiques qui s’affichent lorsqu’on commence à taper un nom dans un moteur de recherche, ou lorsqu’on consulte la page de résultats correspondante.

Ces suggestions, qu’on appelle parfois « autocomplétion » ou « recherches associées », sont produites à partir des comportements collectifs des utilisateurs. Elles indiquent, en pratique, ce que les autres ont cherché en lien avec le nom concerné. Lorsqu’on tape le nom d’une personne mise en cause, les suggestions associées sont presque toujours liées à la mise en cause elle-même. Cette association, qui apparaît avant même que l’on ait ouvert le moindre résultat, fonctionne comme un cadrage : elle dit, en creux, que l’élément central concernant cette personne est la polémique qui l’a touchée.

Ce cadrage par les suggestions est, pour notre métier, l’un des sujets les plus difficiles. Il échappe largement à notre prise. On peut, dans certaines conditions, demander la suppression de suggestions clairement fautives, mais les démarches sont lentes et les résultats incertains. La meilleure manière de transformer ces suggestions est, presque toujours, indirecte : faire en sorte que d’autres recherches, légitimes, se développent autour du nom, jusqu’à ce que le poids relatif des associations négatives diminue. Cette transformation prend, là encore, des années.

Le droit, et ses limites

Il existe un cadre juridique, en France et dans l’Union européenne, qui protège partiellement les personnes contre certaines dérives de l’écosystème numérique. Le droit au déréférencement, consacré par la Cour de justice de l’Union européenne en 2014, permet à une personne, sous certaines conditions, de demander à un moteur de recherche de ne plus afficher certains résultats lorsqu’on tape son nom. Le droit à l’oubli, dans une acception plus large, concerne la possibilité de voir certaines informations cesser d’être publiquement accessibles. Le règlement général sur la protection des données apporte un ensemble de droits qui peuvent être mobilisés dans certaines circonstances.

Ces dispositifs sont précieux. Ils ne sont pas suffisants.

Ils ne sont pas suffisants, d’abord, parce qu’ils ne s’appliquent qu’à certaines situations bien définies — informations inexactes, obsolètes, disproportionnées par rapport à la finalité du traitement. Une grande partie des préjudices réputationnels échappe à ces qualifications. Une enquête journalistique sérieuse, légitime à sa parution, ne peut pas faire l’objet d’un déréférencement parce qu’elle continue de circuler dix ans plus tard et qu’elle pèse, désormais, plus lourd que les évolutions ultérieures de la situation.

Ils ne sont pas suffisants, ensuite, parce qu’ils s’appliquent aux moteurs de recherche traditionnels et qu’ils n’ont pas, à ce jour, de doctrine claire sur les modèles d’intelligence artificielle générative. Lorsqu’un assistant conversationnel restitue, dans sa réponse, une information ancienne et contestable, à qui adresser une demande de rectification ? Et selon quels critères celle-ci sera-t-elle évaluée ? Le droit y travaille, mais il est, dans l’instant, en retard sur les usages.

Ils ne sont pas suffisants, enfin, parce qu’ils opèrent dans un cadre national ou régional, alors que l’écosystème numérique est mondial. Une décision française ou européenne ne s’applique pas, ou s’applique imparfaitement, à des utilisateurs situés ailleurs ou à des plateformes dont les serveurs principaux sont situés ailleurs.

Notre métier travaille avec ces outils juridiques, en lien étroit avec les avocats spécialisés. Nous ne les présentons pas, à nos clients, comme une solution miracle ; nous les présentons comme une partie d’une stratégie plus large, dans laquelle le travail communicationnel et le travail juridique se combinent.

Ce que nous faisons, ce que nous ne faisons pas

Les transformations que nous venons d’évoquer pourraient inviter, dans notre métier, à des pratiques douteuses : génération massive de contenus destinés à enfouir les résultats légitimes, fabrication de fausses sources qui seraient ensuite citées par les modèles génératifs, exploitation des failles techniques des plateformes pour manipuler les classements. Nous l’avons écrit dans notre article sur ce que nous ne faisons pas : ces voies nous sont fermées. Elles le sont par éthique. Elles le sont aussi par stratégie, car elles produisent des résultats fragiles que les algorithmes corrigent, à terme, avec des effets désastreux pour ceux qui s’y sont engagés.

Ce que nous faisons est plus modeste, plus lent, plus exigeant. Nous aidons nos clients à publier, dans la durée, des contenus légitimes, signés, ancrés dans leur métier réel, qui finissent par occuper une part significative de l’espace réputationnel autour de leur nom. Nous travaillons avec des médias qui acceptent de couvrir, lorsque c’est légitime, d’autres dimensions que la séquence difficile. Nous nous appuyons sur les voies juridiques lorsqu’elles sont applicables, et seulement lorsqu’elles le sont. Nous suivons, dans la durée, l’évolution des résultats produits par les moteurs de recherche et par les modèles génératifs sur les noms qui nous concernent, pour ajuster la stratégie en conséquence.

Cette approche ne produit pas de résultats spectaculaires à court terme. Elle est rarement capable, en quelques mois, de transformer la première page de résultats sur un nom sur lequel pèse une polémique majeure. Elle peut, en deux ou trois ans, modifier sensiblement le paysage. Cette temporalité, qui rejoint celle dont nous avons parlé dans notre article sur le temps long, est, dans l’ère algorithmique comme dans le monde antérieur, l’un des principes de réalité que nous devons partager honnêtement avec nos clients.

L’environnement dans lequel nous travaillons a profondément changé. Les traces sont devenues permanentes. Les hiérarchies sont devenues algorithmiques. Les synthèses produites par les modèles génératifs sont devenues, pour une part croissante des utilisateurs, le premier point d’accès à l’information sur une personne ou une organisation. Ces transformations modifient la nature même de ce qu’on appelle la réputation, et elles imposent à notre métier une adaptation qui n’est pas encore achevée.

Notre conviction, dans cette mutation, est qu’il faut tenir deux choses en même temps. D’une part, la fidélité aux principes que nous avons décrits dans les articles précédents : le respect des personnes, la rigueur des méthodes, l’inscription dans la durée, la coopération avec les institutions démocratiques. D’autre part, une compréhension fine et constamment mise à jour de ce qui change dans l’environnement numérique. Ces deux exigences ne sont pas contradictoires ; elles se renforcent. Une stratégie technique sans éthique est fragile, parce que les manipulations finissent par être détectées. Une éthique sans compréhension technique est inefficace, parce qu’elle ne sait pas où se situent les leviers réels.

Pour nos clients, le message à retenir est simple. La réputation, à l’ère algorithmique, ne se construit ni ne se défend comme elle le faisait il y a vingt ans. Mais elle continue de se construire, et elle continue de se défendre. Avec patience. Avec rigueur. Avec une certaine humilité à l’égard d’un environnement que personne ne maîtrise pleinement, pas même les acteurs qui en sont les architectes. Et avec la conviction qu’au cœur des dispositifs techniques, ce sont encore des regards humains qui, à la fin, font ou défont les réputations — même si ces regards ont, désormais, un détour algorithmique de plus en plus long.