Quand les algorithmes chassent les défenseurs des libertés numériques

L'EFF quitte X après voir sa portée s'effondrer de 97% en 7 ans. Les nouveaux algorithmes privilégient le clickbait automatisé aux contenus informatifs.

16 avr. 2026
Quand les algorithmes chassent les défenseurs des libertés numériques
L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience - Next

L'Electronic Frontier Foundation vient de claquer la porte de X après une chute spectaculaire de sa visibilité : ses publications obtiennent aujourd'hui moins de 3% des vues qu'elles généraient il y a 7 ans. De 50-100 millions d'impressions mensuelles en 2018, l'ONG est tombée à 13 millions d'impressions... sur toute l'année 2024. Ce qui se joue ici dépasse le simple départ d'une organisation : c'est l'illustration d'un modèle économique qui privilégie systématiquement l'engagement artificiel sur l'information de qualité.

"Pour le dire clairement, une publication sur X rapporte aujourd'hui moins de 3 % des vues qu'un tweet permettait d'obtenir il y a 7 ans"

— Electronic Frontier Foundation, ONG de protection des libertés numériques

Pendant que l'EFF perd 97% de sa portée, des comptes automatisés comme celui du cofondateur d'Argil se vantent de générer plus de 1000$ en deux semaines grâce à des outils d'automatisation et du contenu clickbait. X a même dû réagir en réduisant de 60% les rémunérations des comptes agrégateurs pour freiner ce déluge de contenus volés. Cette asymétrie révèle un problème systémique : quand les algorithmes récompensent la viralité plutôt que la valeur informationnelle, ils créent un environnement hostile aux acteurs de l'intérêt général.

Points de vigilance

Risque de romantiser l'ancien Twitter ou de tomber dans une critique purement nostalgique. L'enjeu n'est pas le départ d'une ONG mais la transformation systémique des plateformes vers des modèles anti-informationnels.

Et maintenant ?

  • 🤘 Créer un consortium d'ONG pour négocier collectivement avec les plateformes

Alliance EFF, Access Now, La Quadrature, NOYB pour exiger des algorithmes qui ne pénalisent pas les contenus informatifs. Force de frappe collective pour imposer des critères de visibilité équitable entre contenu commercial et intérêt général.

→ On saura que ça marche quand les plateformes publieront leurs critères de ranking et qu'elles incluront des représentants de la société civile dans leurs comités de modération algorithmique.

  • 💪 Diversifier sa présence numérique avant la capture algorithmique

Newsletter directe, flux RSS, présence sur Mastodon/Bluesky, partenariats avec médias indépendants. Construire une audience propriétaire non-dépendante des algorithmes de plateformes. L'exemple EFF montre qu'aucune plateforme n'est pérenne.

→ On saura que ça marche quand les organisations de l'intérêt général auront moins de 30% de leur audience sur les plateformes algorithmiques fermées.

  • ✊ Organiser un boycott coordonné des annonceurs premium sur X

Cibler spécifiquement les entreprises tech qui financent encore X Premium malgré la dégradation du contenu. Campaign similaire à celle qui avait fait fuir les annonceurs en 2023, mais ciblée sur le modèle économique des créateurs automatisés.

→ On saura que ça marche quand X sera contrainte de réviser sa politique de monétisation des contenus agrégés par manque de financement publicitaire.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !