FLTR #20: Prendre sans demander et neutraliser ceux qui peuvent dire non

Chrome s'installe sans rien te dire, Instagram déchiffre tes messages, le régulateur européen découvre qu'il ne peut pas auditer ce qu'il régule, et le FBI enquête sur la journaliste qui enquête. Cette semaine, captation et neutralisation sont la même opération.

10 mai 2026
FLTR #20: Prendre sans demander et neutraliser ceux qui peuvent dire non

Le 8 mai, Meta a supprimé le chiffrement de bout en bout des messages Instagram. Le même jour, Bruxelles adoptait un compromis qui repousse de seize mois les obligations sur l'IA à haut risque, en échange d'une interdiction des outils de génération d'images intimes non consenties. Trois jours plus tôt, le FBI avait ouvert une enquête criminelle contre Sarah Fitzpatrick, la journaliste de The Atlantic qui avait documenté l'alcoolisme et les absences répétées de Kash Patel à la tête de l'institution.

Ces trois faits ne sont pas indépendants. Ils dessinent une opération en deux temps.

Premier temps : prendre sans demander.

Google a déployé silencieusement Gemini Nano — quatre gigas — sur trois milliards de Chrome. Pas de demande. Pas de fenêtre d'accord. Le fichier weights.bin apparaît sur ton disque, et même quand tu le supprimes, il se réinstalle. Le porte-parole de Google assume publiquement : « c'est pour ton bien ».

Pendant que Chrome s'installe, des startups défuntes vendent les archives d'emails et de Slack de leurs anciens employés à des entreprises d'IA. Marché estimé à un milliard de dollars. Les chauffeurs Uber, eux, deviennent des capteurs : équipements greffés sur les véhicules pour entraîner les voitures autonomes des partenaires. Et au bureau, le bracelet Anoria et l'outil MorphCast notent ton humeur en temps réel pour le compte de ton manager.

Tu cliques sur quoi cette semaine ? La question a cessé d'être pertinente. Le consentement n'est plus la base du contrat numérique. Il est devenu cosmétique.

Deuxième temps : neutraliser ceux qui pouvaient dire non.

Trente eurodéputés ont publié une alerte cette semaine : les institutions européennes n'ont pas accès aux IA frontières — Mythos d'Anthropic en particulier — qu'elles sont supposées évaluer. Le Cybersecurity Act n'a pas prévu ce cas. Le régulateur découvre qu'il ne peut pas tester ce qu'il prétend réguler.

Au même moment, le FBI cible la journaliste plutôt que le sujet de son enquête. Le Pentagone signe avec huit géants tech un oligopole IA militaire — et écarte Anthropic du tour de table. Pékin fait annuler RightsCon en Zambie cinq jours avant l'ouverture parce qu'Access Now refuse d'exclure les participants taïwanais. Et un super PAC de cent quarante millions de dollars, lié à OpenAI et Palantir, paie des influenceurs cinq mille dollars par vidéo pour faire de la propagande IA — sans transparence sur le financement.

Les piliers de soutien des contre-pouvoirs cèdent un par un. La même semaine. Sans coordination apparente. Mais avec un effet cumulé qui ressemble à un agenda.

La respiration

Des coalitions tiennent. L'Allemagne publie le référentiel C3A — quatre-vingt-dix jours d'autonomie déconnectée comme exigence par défaut pour les opérateurs critiques, ingénieurs locaux capables de compiler sans dépendance externe. NOYB attaque LinkedIn pour avoir mis le droit d'accès RGPD derrière un paywall Premium. Un développeur allemand, Sixtus, publie le Spotify AI Blocker — quatre mille sept cents artistes IA détectés et filtrés. Les Tchèques décernent leurs Big Brother Awards. L'Australie impose 2,25 % aux plateformes qui refusent de payer les médias.

Aucune de ces ripostes n'est complète. Toutes sont fragmentaires. Mais chacune fait apparaître la même chose : prendre sans demander n'est tenable que si personne n'a les moyens de dire non. Quand quelqu'un — un dev, un État, une ONG — se donne ces moyens, la pince se desserre.

Désinstaller Gemini Nano dans Chrome se fait en quatre clics. Un geste minuscule. Multiplié par trois milliards, ça pèse.



🎯 À lire absolument cette semaine

🇪🇺 Bruxelles interdit les deepnudes — et offre seize mois de répit aux industriels

L'accord Omnibus signé cette semaine fait coexister deux mouvements opposés. D'un côté, l'AI Act ajoute une interdiction des outils de génération d'images intimes non consenties — une victoire pour les associations de protection, qui réclamaient une réponse européenne depuis l'explosion des deepfakes. De l'autre, le compromis repousse de seize mois les obligations encadrant l'IA à haut risque. Le calendrier coïncide avec une intense pression industrielle, et l'alignement de plusieurs partis très intéressés par les services des géants tech. Une interdiction visible, un recul invisible : la mécanique typique du double-bind réglementaire.

Bruxelles interdit les deepnudes, mais s’aligne avec l’industrie et les partis (très) à droite sur l’IA à haut risque
L’accord Omnibus ajoute à l’AI Act une interdiction des outils de génération d’images intimes non consenties et reporte de 16 mois les règles encadrant l’IA à haut risque. Un agenda aligné avec les préoccupations des acteurs de la tech, et de certains partis très intéressés par leurs services.

🤖 Chrome installe 4 Go d'IA sur ton disque sans rien te demander

Google a poussé Gemini Nano sur Chrome au cours des dernières semaines. Pas de notification, pas de réglage opt-in. Le fichier weights.bin s'auto-réinstalle même après suppression. Quand des utilisateurs ont demandé pourquoi, le porte-parole a répondu que c'était « pour leur bien » — formulation qui explicite la doctrine : ton consentement n'est plus une donnée d'entrée du système. Trois milliards d'appareils concernés. La désinstallation existe ; elle suppose que tu saches qu'elle existe.

Fury Erupts After Google Chrome Sneakily Installs 4 GB AI Model On Users’ PCs
Google’s web browser has been “silently” installing an AI model on users’ devices without asking for consent.

🇩🇪 L'Allemagne fait de la défiance une doctrine technique avec C3A

Le BSI allemand vient de publier C3A, un référentiel cloud destiné aux opérateurs critiques. Au cœur du dispositif : quatre-vingt-dix jours d'autonomie déconnectée exigés par défaut, et la présence d'ingénieurs locaux capables de compiler le code sans dépendance à un fournisseur externe. C'est moins un texte réglementaire qu'une grammaire de la résilience exportable. Il rend opérationnel ce que l'Europe répète depuis cinq ans sans le traduire en obligations mesurables.

C3A, ou la défiance méthodique / C3A, oder das methodische Misstrauen - Souveraine tech
🇫🇷 Fin avril 2026. Le BSI (Bundesamt für Sicherheit in der Informationstechnik / Office fédéral de la sécurité des technologies de l’information) publie un document de quelques dizaines de pages, en téléchargement libre sur son site. Titre sobre : Criteria enabling Cloud Computing Autonomy. Pas de communiqué tonitruant, pas de conférence de presse. Juste un

⚡ Les pistes d'action concrètes

🎯 Quick wins (ce mois-ci)

Désinstalle Gemini Nano dans Chrome Quatre clics. chrome://flags → désactiver « Optimization Guide On Device Model » → redémarrer → supprimer le dossier OptimizationGuide. Si tu administres des postes en entreprise, pousse la GPO. Geste de souveraineté individuelle, multipliable à l'échelle d'une équipe ou d'une école.

Chrome installe Gemini Nano sans consentement sur 3 milliards d’appareils
Google déploie silencieusement un modèle IA de 4 Go sur tous les Chrome, sans demander l’autorisation. Les utilisateurs découvrent le fichier ‘weights.bin’ et ne peuvent pas l’empêcher de se réinstaller.

🌱 Long terme (1-2 ans)

Coalition européenne pour l'accès aux IA frontières L'alerte des trente eurodéputés ouvre une fenêtre politique. Une coalition régulateurs nationaux + chercheurs en IA + ONG numériques peut transformer cette alerte en obligation contractuelle : pas d'accès aux marchés européens sans accès des régulateurs aux modèles. Le Cybersecurity Act se révise — c'est le moment de pousser cette ligne.

L’Europe découvre qu’elle n’a pas accès aux IA qu’elle veut réguler
30 eurodéputés alertent : les lois européennes ne peuvent pas évaluer les risques de Mythos d’Anthropic car l’UE n’y a pas accès. Ils demandent une refonte du Cybersecurity Act.

Observatoire indépendant des contrats tech-militaires Alliance journalistes d'investigation + chercheurs + syndicats tech pour documenter systématiquement les accords classifiés (Pentagone–huit géants, Google–Maven, Anthropic–SpaceX). Cibler les investisseurs ESG sur les contradictions entre communication publique et pratiques contractuelles.

Le Pentagone transforme l’IA militaire en oligopole de huit géants tech
Le Pentagone signe avec 8 géants tech pour déployer l’IA sur ses réseaux classifiés, excluant Anthropic après un conflit sur l’usage militaire de Claude.

Le HUB des pistes d'action

Depuis le 1er janvier, j'ai publié plus de 750 pistes d'action, collectées au fil de ma veille et des articles rédigés selon le framework que j'ai développé. J'ai consolidé cette semaine le meilleur de cette dynamique de mise en action avec 30 pistes opérationnelles, organisées par profil d'acteur, mises à jour tous les trois mois pour rester collées au signal réel.

L'idée : sortir du commentaire générique. Selon ce que tu es, ce que tu décides et ce sur quoi tu peux peser, les leviers ne sont pas les mêmes.

Comment (ré)activer nos libertés numériques ?
Une trentaine de pistes d’action concrètes, mises à jour régulièrement par notre veille, à développer selon la posture, les enjeux et les moyens qui vous correspondent le mieux.

Je te laisse les découvrir en avant-première (le hub est public, mais les fiches sont accessibles uniquement aux abonnés, donc à toi)

Si une piste te semble manquer ou si tu veux échanger sur l'application concrète à ton terrain, mon agenda est ouvert et je serai ravi d'en discuter avec toi et tes équipes.


📚 Si tu les as manqués

LinkedIn locks your GDPR rights behind a paywall
noyb has filed a complaint against the Microsoft-subsidiary with the Austrian data protection authority
700 employés irlandais licenciés pour avoir trop bien dressé l’IA de Meta
Meta licencie 700 annotateurs de données chez Covalen en Irlande. Leur mission : entraîner l’IA à modérer les contenus. Résultat : l’IA les remplace.
Google bascule vers l’armement : de Maven 2018 aux contrats classifiés
Après avoir renoncé au Project Maven en 2018 face à la révolte de ses employés, Google signe un accord avec le Pentagone pour des usages militaires classifiés de Gemini. 600 employés protestent à nouveau.
‘The Biggest Student Data Privacy Disaster in History’: Canvas Hack Shows the Danger of Centralized EdTech
Messages could include “medical circumstances, accessibility accommodations, disputes, sexual assault allegations,” and more.
Login.gov devient l’identité numérique nationale sous contrôle DOGE
Greg Hogan, affilié DOGE, prend la tête de Login.gov avec pour mission d’en faire une plateforme d’identité nationale centralisée. Un employé anonyme alerte : ‘Avec un gars DOGE aux commandes, ça ressemblera plus à un dépôt central de surveillance.’
2,1 milliards perdus : les réseaux sociaux deviennent la première arnaque
Les escroqueries sur réseaux sociaux ont causé 2,1 milliards de dollars de pertes aux États-Unis en 2025, dépassant tous les autres canaux de contact selon la FTC.
Les géants du cloud contournent la guerre par l’Irak
Amazon, Google, Meta et Microsoft achètent de la fibre noire le long des pipelines irakiens pour sécuriser leurs flux de données du Golfe vers l’Europe, contournant les câbles sous-marins vulnérables.
Souveraineté des données : les peuples autochtones redéfinissent l’IA
Une recherche australienne révèle comment les peuples autochtones pensent l’IA : non pas comme un outil neutre, mais comme un système relationnel qui doit servir la communauté avant l’efficacité.

🎬 Backstage

Merci à Pascal Bustamante (RTBF) pour cet interview dans le 19h30 de Nathalie Malleux, à la base de l'article "Bruxelles interdit les deepnudes, mais s'aligne avec l'industrie et les partis (très) à droite sur l'IA à haut risque".

Séquence à revoir sur Auvio.be

321 signatures ... and counting

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 Tu en veux plus ? On en discute !

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedInBlueskyMastodon ou Facebook !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda.

À dimanche prochain,

Damien