
Ce qui se joue ici dépasse la simple modération algorithmique. Depuis le rachat de TikTok fin janvier par un consortium incluant Larry Ellison, proche de Trump, 32 députés européens observent des dysfonctionnements suspects : contenus bloqués sur les dossiers Epstein, portée réduite des vidéos critiquant l'ICE, bugs récurrents sur des mots-clés sensibles. Les élus de trois groupes de gauche demandent à la Commission d'ouvrir une enquête sous le Digital Services Act.
"Les utilisateurs ont signalé des problèmes de téléchargement de vidéos, une portée réduite et des vues anormalement faibles pour les contenus mentionnant les mots Epstein, ICE et Minnesota"
— 32 députés européens, Signataires de la lettre à la Commission
L'enjeu systémique révèle l'asymétrie fondamentale des plateformes : quand la propriété change, les règles de modération peuvent basculer du jour au lendemain sans transparence ni recours. TikTok invoque des "problèmes techniques", mais la coïncidence temporelle avec le changement d'actionnariat interroge. Cette affaire illustre comment les infrastructures de l'information peuvent devenir des leviers géopolitiques.
Au-delà du cas TikTok, cette mobilisation parlementaire teste la capacité européenne à faire respecter ses règles face aux mutations capitalistiques des plateformes globales.
Points de vigilance
Risque de polarisation politique si l'enquête est perçue comme partisane. La distinction entre censure intentionnelle et bugs techniques reste à démontrer.
Et maintenant ?
- 🤘 Créer un observatoire parlementaire européen de la modération algorithmique
Coalition députés européens + chercheurs en algorithmique + journalistes d'investigation pour documenter en continu les changements de politique éditoriale des plateformes lors des rachats. Mécanisme : tableau de bord public avec indicateurs de portée par mots-clés sensibles, alertes automatiques sur les variations suspectes post-acquisition.
→ On saura que ça marche quand les plateformes devront notifier publiquement tout changement d'algorithme de modération dans les 48h après un rachat ou changement d'actionnariat.
- ✊ Organiser des stress-tests coordonnés de modération post-rachat
Réseau d'utilisateurs européens publiant simultanément des contenus témoins sur mots-clés sensibles pour documenter objectivement les variations de portée. Action collective de non-coopération : retrait coordonné des comptes premium en cas de censure avérée, ciblant le pilier revenus publicitaires.
→ On saura que ça marche quand les plateformes devront fournir des garanties contractuelles de continuité éditoriale lors des changements de propriétaire pour éviter l'exode utilisateurs.
- 💪 Documenter ses propres métriques de portée avant/après les rachats
Action individuelle : télécharger ses analytics TikTok mensuellement et les archiver. En cas de rachat de plateforme, comparer les métriques sur contenus identiques pour constituer un faisceau de preuves utilisable dans les recours collectifs. Effet démultiplicateur : chaque utilisateur devient un capteur de censure.
→ On saura que ça marche quand les tribunaux accepteront les données utilisateurs agrégées comme preuves de discrimination algorithmique dans les procédures antitrust.
7/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !


