
Cette histoire a tout d'un épisode de Mr. Robot : un hacker s'infiltre dans Doublespeed, startup financée par a16z qui opère une ferme de 573 comptes TikTok alimentés par IA, et tente de retourner l'arme contre son créateur en faisant publier des mèmes traitant a16z d'«antéchrist». Le piratage révèle l'ampleur industrielle de la désinformation automatisée : 573 comptes postables, 413 téléphones contrôlés, 47 MB de données exfiltrées. L'ironie du sort frappe Marc Andreessen, cofondateur d'a16z et membre du conseil d'administration de Meta, qui finance une entreprise violant ouvertement les politiques d'authenticité de Facebook. Doublespeed vend explicitement sa capacité à contourner les systèmes de détection des plateformes, transformant l'économie de l'attention en théâtre d'ombres où personne ne sait plus qui parle vraiment. Ce qui se dessine ici dépasse la simple escroquerie publicitaire : c'est l'industrialisation de la manipulation d'opinion par l'IA, financée par ceux-là mêmes qui prétendent réguler l'espace numérique.
Points de vigilance
Le hack révèle les vulnérabilités de ces systèmes mais ne résout pas le problème structurel de l'industrialisation de la désinformation par l'IA.
Et maintenant ?
- 🤘 Créer un observatoire indépendant des fermes à bots avec audit temps réel
Alliance chercheurs en sécurité + journalistes d'investigation + régulateurs pour documenter et exposer publiquement les opérations de manipulation industrielle. Utiliser les mêmes techniques de détection que les hackers pour cartographier les réseaux d'influence artificielle en continu.
→ On saura que ça marche quand les investisseurs en IA sociale devront publier des audits de légitimité avant chaque levée de fonds.
- ✊ Organiser la responsabilité en cascade des investisseurs sur leurs portefeuilles
Cibler le maillon faible : les LPs (investisseurs institutionnels) d'a16z via campagnes coordonnées questionnant leur exposition aux risques de réputation. Documenter systématiquement les conflits d'intérêts entre mandats de conseil (Meta) et investissements (Doublespeed).
→ On saura que ça marche quand les fonds devront publier des politiques d'exclusion explicites sur la manipulation d'audience artificielle.
- 💪 Développer des outils de détection collaborative des comptes IA générés
Extension navigateur open source permettant aux utilisateurs de signaler et partager les indices de comptes artificiels (patterns de publication, interactions suspectes, contenu généré). Créer un réseau de vérification par les pairs qui rend les fermes à bots économiquement non-rentables.
→ On saura que ça marche quand le coût de maintenance d'un compte IA crédible dépassera ses revenus publicitaires potentiels.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Je m'appelle Damien Van Achter, Je suis journaliste, prof et consultant en innovation et en pédagogie entrepreneuriale. Depuis 2005, j'essaye de comprendre et de raconter comment fonctionnent nos systèmes informationnels.
Au cours du temps, j'ai développé des outils d'analyse qui repèrent les pièges tendus par les entreprises de la tech et certains états, et j'explore des pistes pour tenter de s'en libérer, positivement et avec discernement.
J'explique ici ma démarche, inspirée récemment des travaux de l'historien Timothy Snyder, comment ces analyses sont produites techniquement et humainement, ainsi que leurs limites.
On t'a transféré ce mail ? Tu peux t'abonner en 1 clic pour recevoir les suivants.
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Jette un oeil à mon agenda. 📆
@davanac
