DSA européen : quand la régulation anticipe ses propres critiques

L'Arcom détaille comment le DSA protège la liberté d'expression en ciblant les comportements manipulateurs plutôt que les contenus, répondant aux accusations de censure de Trump.

3 avr. 2026
DSA européen : quand la régulation anticipe ses propres critiques
L’Arcom répond à Trump sur le DSA et les soi-disant atteintes à la liberté d’expression - Next

Ce rapport de l'Arcom révèle une stratégie réglementaire sophistiquée : le DSA européen intègre dès sa conception des garde-fous contre la censure, en distinguant soigneusement désinformation (contenus faux) et manipulation de l'information (comportements coordonnés). Cette approche par les risques systémiques plutôt que par l'évaluation de véracité case-par-case constitue une innovation réglementaire majeure.

"Le RSN repose sur une logique de gestion des risques systémiques et non sur une appréciation de la véracité des contenus pris isolément. Par conséquence, la lutte contre la désinformation doit se distinguer de la lutte contre la manipulation de l'information, qui vise prioritairement les comportements coordonnés."

— Arcom, Autorité de régulation française

L'exemple de la vidéo IA sur un prétendu coup d'État en France illustre cette logique : Meta refuse de la supprimer car elle ne viole pas ses conditions, et Thierry Breton valide cette décision au nom de la liberté d'expression. Le paradoxe est saisissant : une régulation accusée de censure protège finalement mieux la liberté d'expression que l'approche américaine du laissez-faire. L'enjeu systémique dépasse la querelle transatlantique : il s'agit de démontrer qu'une régulation intelligente peut concilier protection contre la manipulation et préservation du débat démocratique.

Points de vigilance

Risque de capture réglementaire si les plateformes instrumentalisent cette rhétorique de protection de la liberté d'expression pour affaiblir les obligations du DSA...

Et maintenant ?

  • 🤘 Créer une alliance régulateurs-chercheurs pour documenter les effets du DSA

Coalition entre autorités nationales (Arcom, BNetzA, Agcom) et laboratoires de recherche pour produire des études indépendantes sur l'impact réel du DSA sur la liberté d'expression. Objectif : contrer les narratifs de censure par des données factuelles et créer un corpus de jurisprudence européenne.

→ On saura que ça marche quand les débats sur la régulation des plateformes s'appuieront sur des études empiriques plutôt que sur des positions idéologiques.

  • 🤘 Développer des outils d'audit citoyen des algorithmes de modération

Partenariat entre ONG tech (Quadrature du Net, EDRi) et développeurs pour créer des outils permettant aux utilisateurs d'auditer les décisions de modération sur leur propre contenu. Exploiter les obligations de transparence du DSA pour rendre visible l'arbitraire algorithmique.

→ On saura que ça marche quand les utilisateurs pourront comprendre pourquoi leur contenu a été modéré et contester les décisions avec des preuves techniques.

  • 💪 Utiliser les rapports de transparence DSA pour documenter les biais

Analyser systématiquement les rapports de transparence obligatoires des plateformes pour identifier les patterns de modération discriminatoire par langue, région ou sujet. Créer une base de données collaborative des décisions problématiques pour alimenter les recours collectifs.

→ On saura que ça marche quand les rapports de transparence deviendront des outils d'accountability plutôt que des exercices de communication.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆