
Il y a des époques où l’on ne vous bâillonne pas avec un chiffon : on vous déclasse. Un petit réglage de visibilité, une portée divisée par deux, un sujet qui n’entre plus “dans les tendances”, une vidéo qui ne “prend” plus. Rien d’assez spectaculaire pour déclencher l’indignation. Juste assez efficace pour faire taire, lentement, les voix qui dérangent.
Dans un entretien dense mené par Olivier Berruyer pour Élucid, l’analyste du numérique Fabrice Epelboin déroule une thèse inquiétante : l’Europe aurait installé, souvent sans le dire, une architecture de censure et de surveillance appelée à survivre aux gouvernements… et à servir demain des mains moins scrupuleuses encore. Avec, en arrière-plan, un autre vertige : notre dépendance technologique — cloud, plateformes, IA — nous placerait dans une position de colonie numérique.
« On est une colonie numérique américaine. »
Ce qui suit n’est pas une “fiche technique” sur le numérique : c’est une lecture critique et structurée des idées fortes exprimées dans l’entretien, de leurs implications politiques, et du monde social qu’elles dessinent — ce moment où la liberté ne disparaît pas d’un coup… mais se retire comme la mer, en laissant sur le sable des coquilles vides : nos droits, nos réflexes démocratiques, notre capacité à dire “non”.
Synthèse des thématiques abordées
Dans cet entretien, Fabrice Epelboin décrit un basculement : la modération se transformerait en gouvernement des opinions, la souveraineté numérique deviendrait une question de dépendance stratégique, et l’IA accélérerait le tout en créant une dette cognitive. L’enjeu central : une démocratie peut-elle tenir debout quand la vie privée, la liberté d’expression et le recours au droit se dissolvent dans l’infrastructure ?
- DSA : “industrialisation” du traitement des contenus, avec des “signaleurs de confiance” et des plateformes sous pression d’amendes.
- Shadowban : censure invisible, mesurée en portée et en distribution, difficile à prouver et sans recours effectif.
- Chat control : projet de scanning des messages, pied dans la porte justifié par la lutte contre des crimes unanimement condamnés.
- Fin du pseudonymat : tentation politique compréhensible, mais risque majeur pour les lanceurs d’alerte et les contre-pouvoirs.
- Souveraineté numérique : confusion entretenue entre “hébergement” et “cloud” (services), verrouillage des écosystèmes.
- IA : course de puissance (énergie, GPU, talents), plus qu’une simple innovation ; émergence d’une “dette cognitive”.
- Données personnelles : fuites massives, marchandisation, risques physiques ; la vie privée serait déjà “derrière nous”.
- Twitter Files / Epstein : crise de confiance envers médias et institutions, bataille du narratif et tentation de contrôle accru.
Le DSA : quand la justice devient une chaîne de montage
Le cœur de l’alerte d’Epelboin tient en une image : la justice, déplacée du tribunal vers l’interface. Là où la liberté d’expression, dans une démocratie libérale, est encadrée par des lois et arbitrée par un contradictoire, il décrit une bascule : pour “traiter en masse”, on délèguerait à des acteurs privés — associations labellisées et plateformes — une fonction quasi juridictionnelle.
Sa critique n’est pas seulement morale, elle est architecturale. Une architecture, dit-il, survit aux alternances. Une fois que la tuyauterie est installée, il suffit de changer les mains sur les vannes.
« On va leur confier un système de surveillance totale et un système de censure absolu. »
Les “signaleurs de confiance” : procureurs sans robe
Selon lui, le mécanisme du DSA repose sur des “signaleurs de confiance” capables d’identifier des contenus “problématiques” et d’en demander l’invisibilisation. La plateforme, soumise à la menace d’amendes, choisirait la solution la plus simple : retirer, déréférencer, réduire. Non parce que le contenu est toujours illégal, mais parce que la prudence industrielle préfère l’écrasement à l’examen.
Le point politique est tranchant : ce système, dit-il, est parfaitement vulnérable aux changements de majorité. Aujourd’hui un biais, demain un autre. La machine, elle, reste.
Le shadowban : la censure qui ne laisse pas de traces
La censure moderne ne brûle pas des livres : elle réduit l’oxygène. Le shadowban, tel qu’il le décrit, ne supprime pas forcément votre contenu. Il le laisse vivre… mais dans une pièce fermée, sans fenêtres. Vous publiez, vous voyez votre publication, tout a l’air normal. Sauf que l’audience ne suit plus. La visibilité s’effondre. Et comme la preuve est difficile, la contestation devient suspecte : “paranoïa”, “complotisme”, “mauvais contenu”.
Epelboin rattache cette logique aux révélations des Twitter Files : des règles internes extrêmement fines qui moduleraient la portée selon les sujets, les zones géographiques, les profils. Il donne même une image volontairement absurde (le “topinambour”) pour montrer la puissance d’un système capable de filtrer des mots, donc des idées.
« Il y avait un million de règles de ce type-là. »
Le résultat, dit-il, est économique autant que politique : quand ton modèle dépend des plateformes, une baisse de visibilité peut signifier la faillite. Et le citoyen, lui, n’a pas de recours réel : le “droit” est avalé par la procédure, la procédure par l’opacité, l’opacité par l’algorithme.
Pourquoi censurer ? La “stabilité sociale” comme doctrine
La question la plus intéressante n’est peut-être pas “qui censure ?”, mais “pourquoi ?”. Epelboin répond sans détour : la stabilité sociale. Maintenir la cohésion, éviter l’émeute informationnelle, réduire les risques politiques. Et ce diagnostic le mène à une conclusion beaucoup plus grave : nous serions déjà entrés dans une forme de post-démocratie, où certains droits fondamentaux (vie privée, procès équitable en ligne, liberté d’expression effective) se dégradent au point de ne plus être garantis.
« La démocratie, c’est derrière nous. »
On peut discuter cette formule — elle est radicale, presque provocatrice — mais elle force une question : que reste-t-il d’un régime démocratique quand la conflictualité est gérée par l’infrastructure (plateformes, surveillance, normes techniques) plutôt que par la délibération et le droit ? Une démocratie n’est pas seulement un rituel électoral : c’est un ensemble de garanties concrètes qui permettent l’opposition, la critique, la dissidence. Si ces garanties deviennent “conditionnelles” à des réglages de plateformes, alors la politique change de nature.
Chat control : le pied dans la porte qui revient toujours
L’un des passages les plus sombres concerne le projet dit “chat control”, décrit comme l’installation de mécanismes de scanning dans les messageries chiffrées, avant même l’envoi effectif des messages. Le scénario est classique, presque narrativement parfait : commencer par l’inattaquable (la lutte contre des crimes unanimement haïs), puis élargir progressivement le périmètre.
Epelboin insiste sur un détail culturel : certains pays, marqués par des expériences de police politique, auraient davantage de réflexes de résistance. D’autres, plus amnésiques, avanceraient plus docilement — surtout si la justification est enveloppée de protection et de morale.
Fin du pseudonymat : tentation compréhensible, conséquence explosive
Le débat sur l’anonymat en ligne a une dimension psychologique simple : quand vous êtes harcelé, vous voulez un visage, un nom, un tribunal. Epelboin ne nie pas cette tentation. Il rappelle même que, techniquement, l’anonymat total est rare, réservé à des profils très compétents. Mais il refuse l’amalgame politique : supprimer le pseudonymat, c’est aussi supprimer une part essentielle du contre-pouvoir social.
Sans pseudonymat, explique-t-il, pas de lanceurs d’alerte. Pas de fonctionnaires qui témoignent. Pas d’employés qui dénoncent des pratiques illégales. Et comme la justice est lente, coûteuse, souvent impuissante à traiter ces cas, la “solution” technologique (identifier tout le monde) deviendrait un moyen commode de faire taire… au nom de la civilité.
Souveraineté numérique : la dépendance, mais en version premium
Le terme “souveraineté” est devenu un slogan. Epelboin, lui, le ramène à une définition presque domestique : être maître chez soi dans l’environnement numérique. Concrètement : dépendre le moins possible d’infrastructures étrangères pour faire tourner une entreprise, une administration, un État.
Il attaque une confusion répandue : croire que “le cloud”, c’est juste “héberger des données”. Selon lui, le vrai sujet est le passage aux services (CRM, paie, gestion, outils métiers) qui enferment les organisations dans des écosystèmes. L’illusion du choix (“on changera de fournisseur”) se fracasse sur la réalité du verrouillage : sortir d’un écosystème peut signifier refaire des années de travail.
« Ils te tiennent par les couilles. »
“Colonie numérique” : une analogie qui pique là où ça fait mal
Sa métaphore coloniale est volontairement abrasive. Il compare la trajectoire européenne à un schéma historique : arrivée d’infrastructures “civilisatrices”, adoption massive, puis découverte tardive du prix réel — extraction de ressources, dépendance, impuissance politique. Ici, la ressource n’est pas le minerai : ce sont les données, la propriété intellectuelle, l’attention, les habitudes collectives.
Qu’on approuve ou non le vocabulaire, l’image a une force : elle rappelle que la puissance numérique n’est pas neutre. Elle façonne ce qu’un pays peut décider, protéger, contester. Et elle détermine la marge de manœuvre, le jour où le rapport de force se tend.
L’IA : course de puissance, énergie, talents… et “dette cognitive”
Sur l’intelligence artificielle, Epelboin refuse le discours magique (“révolution pour l’humanité”) autant que le dédain (“gadget”). Il la décrit comme un phénomène à plusieurs étages.
1) Un jeu de riches
Il souligne d’abord l’asymétrie financière : les investissements colossaux, la concentration des capacités, le poids de l’énergie et des infrastructures. Dans ce cadre, l’Europe apparaît comme un acteur qui arrive à la table… sans jetons suffisants.
2) Une géopolitique de l’énergie et des processeurs
Il ramène l’IA à une réalité brutale : elle repose sur des GPU, des chaînes industrielles, et des coûts énergétiques. Quand l’énergie devient la variable maîtresse, l’IA cesse d’être un “outil” pour redevenir un instrument de puissance — comme l’acier, le pétrole, les câbles sous-marins, autrefois.
3) La “dette cognitive” : déléguer sans se dissoudre
Le passage le plus fin, peut-être, est celui sur la dette cognitive. Epelboin reconnaît la puissance concrète des IA au quotidien : compréhension, synthèse, assistance. Mais il met en garde contre un glissement psychique : confier des morceaux entiers de nos processus mentaux à une machine, sans compensation consciente.
« Garder un minimum de souveraineté cognitive. »
Il ne dit pas : “n’utilisez pas l’IA”. Il dit plutôt : faites-le en adulte. Identifiez ce que vous déléguez, ce que vous perdez, et ce que vous devez reconstruire autrement (lecture longue, raisonnement, mémoire, esprit critique). Sinon, la productivité augmente… et l’autonomie se ratatine.
Données personnelles : quand la fuite devient un risque physique
Sur la vie privée, Epelboin tient un propos radical : la fin n’est pas devant nous, elle serait déjà advenue. Il décrit un monde où les fuites sont massives, répétées, industrialisées, et où la prise de conscience vient non pas d’un débat philosophique, mais de la peur.
« C’est fini la vie privée. Ce n’est pas “on va vers la fin”. La fin, elle est derrière nous. »
Le point important, ici, est la translation : la donnée personnelle ne relève plus seulement du marketing. Elle devient une question de sécurité. Quand des fichiers circulent, quand des identités et des adresses se revendent, le numérique se transforme en violence potentielle. Et la société, déjà fragilisée, intériorise une nouvelle norme : ne plus parler, ne plus s’exposer, se taire “par prudence”.
Cette prudence, dans une démocratie, a un nom moins noble : l’autocensure.
Twitter Files, Epstein : le narratif en guerre ouverte
L’entretien tisse un fil rouge : la crise de confiance. Les Twitter Files, dit-il, auraient contribué à fissurer la légitimité des médias traditionnels et à déplacer le centre de gravité vers les podcasts et les plateformes. L’affaire Epstein, dans son récit, révèle un autre mécanisme : la difficulté — ou la peur — des médias à enquêter “jusqu’au bout”, au-delà de l’écume émotionnelle.
Son intuition est simple : si le narratif échappe, le pouvoir cherchera à le reprendre. Et il affirme que l’outil existe déjà : le DSA, les signaleurs de confiance, les dispositifs de déréférencement, l’invisibilisation.
On peut trouver le tableau excessivement noir. Mais il faut entendre ce qu’il pointe : une bataille qui ne se joue plus seulement sur des idées, mais sur la distribution des idées. Or, contrôler la distribution, c’est contrôler la réalité sociale perçue.
Ce que cette “post-démocratie” change pour toi (et pour nous)
Au fond, l’entretien pose une question intime : quand tout passe par le numérique, qui tient les interrupteurs ? Ce n’est pas une métaphore. C’est l’économie réelle de notre époque : les médias, la sociabilité, l’accès au travail, la réputation, l’information, le débat public.
Alors, que faire — sans sombrer ni dans la panique, ni dans la résignation ? On peut au moins dégager quelques réflexes de survie démocratique, compatibles avec la vie quotidienne :
- Reprendre possession de ses canaux : newsletter, site, RSS, listes d’e-mails. Ce qui t’appartient résiste mieux aux algorithmes.
- Diversifier ses plateformes : ne pas dépendre d’une seule source d’audience, ni d’un seul réseau social.
- Pratiquer l’hygiène informationnelle : vérifier, croiser, ralentir. Une société pressée est une société manipulable.
- Réapprendre le long : lecture, enquêtes, formats exigeants. La complexité est un antidote au pilotage émotionnel.
- Faire de l’IA un outil, pas un tuteur : déléguer des tâches, oui ; déléguer sa pensée, non.
- Exiger des garanties : transparence des décisions de modération, voies de recours, contrôle démocratique des dispositifs.
Ce n’est pas héroïque. C’est même un peu ingrat. Mais c’est peut-être ça, le vrai courage contemporain : maintenir une zone de liberté dans un monde conçu pour l’optimisation, le tri, la réduction.
Conclusion : la liberté n’a pas disparu — elle s’est rendue moins visible
Le plus dérangeant, dans cette affaire, n’est pas qu’un analyste parle de censure. C’est qu’il décrive une censure sans censeurs identifiables, sans affiches, sans procès, sans autodafé. Une censure par design : distribuée, industrialisée, normalisée, presque administrative.
Et si Epelboin force parfois le trait, il a au moins le mérite de poser la question qui tue : à quel moment avons-nous accepté que nos droits deviennent des “paramètres” ?
Il y a des tempêtes qui cassent des branches. Et d’autres, plus silencieuses, qui changent le cours de la rivière. Le numérique, aujourd’hui, ressemble à la seconde : on s’habitue. Jusqu’au jour où l’on regarde en arrière… et où l’on se demande quand, exactement, le paysage a basculé.
Yoast SEO
- Requête cible : censure numérique DSA
- Titre SEO : Censure numérique : DSA, shadowban, IA… l’alerte d’Epelboin
- Slug : censure-numerique-dsa-shadowban-epelboin
- Méta-description (156 caractères) : DSA, shadowban, chat control, IA : Fabrice Epelboin décrit une censure industrielle et la dépendance européenne aux plateformes américaines.
