FLTR #19: Le bot, le journaliste et le scanner d'iris

OpenAI déguise des agents en reporters, Pékin imite l'ICIJ (Panama Papers) pour piéger ses dissidents, LinkedIn invite un faux CEO sur sa scène. L'industrie qui fabrique le doute vend désormais le badge officiel pour prouver ton humanité. Une semaine qui fout un peu les boules, quand même ...

3 mai 2026
FLTR #19: Le bot, le journaliste et le scanner d'iris

Tu l'as peut-être croisé sur LinkedIn ces derniers mois. Kyle, CEO d'une boîte qu'on ne nommera pas, threads leadership et posts inspirants chaque semaine. Cinq mois d'audience, des milliers d'abonnés, une crédibilité telle que LinkedIn elle-même l'a invité à parler devant ses propres employés. Sauf que Kyle n'existe pas. C'est un personnage entièrement fabriqué par un journaliste qui voulait tester ce que la plateforme tolère. La punchline : Kyle a été banni 36 heures après avoir suggéré, en direct, que LinkedIn filtre mieux ses bots.

Le même week-end, Futurism documente que des agents OpenAI démarchent des sources expertes en se faisant passer pour de vrais journalistes. L'ICIJ — le consortium international de journalistes d'investigation derrière les Panama Papers et les Pandora Papers — découvre que des opérations chinoises usurpent l'identité de ses propres reporters pour piéger militants et officiels taïwanais. Plus de 100 domaines malveillants détectés. Et la même semaine, Sam Altman finit de déployer ses orbes biométriques pour certifier ton humanité face aux IA qu'il a lui-même contribué à créer. Zoom, DocuSign et Tinder ont déjà signé.

Quatre épisodes apparemment disparates. Une seule bascule : l'authenticité humaine devient un marché.

Étage 1 — saturer le réseau. 35 % du web nouveau est généré par machine. 28 % du contenu tech publié sur Substack est rédigé par IA. La rareté humaine n'est plus un constat mélancolique, c'est une production industrielle. Plus tu inondes le réseau de faux journalistes, faux experts, faux CEO, plus la valeur du badge « humain certifié » augmente. C'est le manuel.

Étage 2 — vendre l'extincteur à celui qui a craqué l'allumette. World (ex-Worldcoin) propose son scanner biométrique en s'alliant aux géants américains pour contourner les régulateurs européens. Le mécanisme est éprouvé depuis Standard Oil : tu inondes le marché de produits dégradés, tu rachètes les régulateurs, puis tu vends le tampon officiel à ceux qui veulent encore prouver qu'ils sont eux-mêmes. Sam Altman est aux deux bouts.

Étage 3 — capturer l'arbitrage. Quand « qui peut s'identifier comme journaliste, expert ou source » devient une décision politique, l'État reprend la main. Le FBI de Kash Patel ouvre une enquête pour « harcèlement » contre une journaliste du New York Times — précédent inédit de criminalisation du journalisme standard. Pékin se déguise en ICIJ pour démasquer des dissidents. Washington injecte 500 000 dollars dans des think tanks européens pour fragiliser la régulation des plateformes. Plus tu doutes, plus tu cherches une autorité — et l'autorité a déjà choisi son camp.

Étage 4 — le contre-mouvement, là où on ne l'attend pas. Pas dans les régulateurs, lents et fragmentés. Pas dans les plateformes, juges et parties. Dans le retrait organisé. Le Health Data Hub français a basculé sept ans de données de santé hors d'Azure, vers Scaleway — souveraineté d'identification reprise après sept ans de polémique. EDRi orchestre la voix d'une génération européenne : « réparez les plateformes, ne nous bannissez pas. » 35 organisations européennes dénoncent leur exclusion du débat IA bruxellois et exigent de siéger.

Tu vois le mécanisme ? Tant que la guerre se joue sur « détecter le bot », l'industrie qui fabrique le bot a la main. La seule sortie possible passe par le retrait du consentement à arbitrer cette guerre. Refuser de payer l'extincteur à celui qui vend l'allumette. Construire ses propres registres de confiance, ses propres infrastructures, ses propres coalitions.

C'est exactement ce que Bruxelles appelle « souveraineté numérique » depuis cinq ans en mobilisant 180 millions d'euros pour s'extraire du cloud américain. C'est ce que la France vient de faire avec ses données santé. C'est ce qu'EDRi pousse à l'échelle d'une génération.

Question pour toi cette semaine : la prochaine fois qu'on te demande de prouver que tu es humain, qui paies-tu pour la preuve ?


🎯 À lire absolument cette semaine

🪪 L'humain certifié devient un produit, et c'est OpenAI qui le fabrique

Sam Altman pousse simultanément deux marchés qui n'existeraient pas sans lui : la prolifération de faux humains via OpenAI, et le service qui certifie que tu en es un vrai via World. Zoom, DocuSign et Tinder ont déjà adopté les orbes biométriques. La logique : scanner d'iris contre badge d'humanité, dans un monde où la confusion est un produit dérivé du modèle économique d'OpenAI. Forbes documente l'archétype de la vente couplée à l'échelle planétaire. Ce que tu paies, c'est l'extincteur à celui qui a allumé l'incendie.

Sam Altman vend le problème ET la solution de l’authentification humaine
Le patron d’OpenAI déploie des orbes biométriques pour certifier l’humanité face aux IA qu’il a lui-même contribué à créer. Zoom, DocuSign et Tinder adoptent déjà le système.

🎭 Pékin se déguise en ICIJ pour piéger ses dissidents

Après l'enquête « China Targets » publiée par l'ICIJ, des opérations chinoises ont créé plus de 100 domaines malveillants imitant les sites de journalistes du consortium pour démasquer militants et officiels taïwanais. L'usurpation d'identité journalistique devient une infrastructure d'État. Au moment où le FBI américain ouvre une enquête pour « harcèlement » contre une journaliste du New York Times, deux régimes convergent vers la même méthode : ce n'est plus la presse qu'on attaque, c'est sa capacité à s'identifier elle-même.

Pékin transforme l’usurpation d’identité en arme de surveillance massive
Après l’enquête China Targets, des espions chinois se font passer pour des journalistes ICIJ pour piéger militants et officiels taïwanais. Plus de 100 domaines malveillants détectés.

🤖 Quand OpenAI infiltre les rédactions sans le dire

Futurism documente que des agents IA, pointant vers des infrastructures liées à OpenAI, démarchent des sources expertes en se présentant comme journalistes humains. Aucune mention du caractère synthétique de l'interlocuteur, aucun consentement éclairé de la source. La même semaine, LinkedIn invite un faux CEO sur sa propre scène et le bannit 36 heures plus tard quand il suggère trop fort que la plateforme filtre mieux ses bots. Quand l'industrie qui produit la confusion entre directement dans les rédactions, la profession passe de cible à champ de bataille.

Agents IA journalistes : OpenAI teste l’infiltration médiatique
Des agents IA se font passer pour des journalistes humains pour interviewer des experts, avec des liens suspects vers OpenAI. Une escalade dans la manipulation de l’information.

⚡️ Des pistes d'action, selon ta posture

Depuis le 1er janvier, j'ai publié plus de 750 pistes d'action, collectées au fil de ma veille et des articles rédigés selon le framework que j'ai développé. J'ai consolidé cette semaine le meilleur de cette dynamique de mise en action avec 30 pistes opérationnelles, organisées par profil d'acteur, mises à jour tous les trois mois pour rester collées au signal réel.

L'idée : sortir du commentaire générique. Selon ce que tu es, ce que tu décides et ce sur quoi tu peux peser, les leviers ne sont pas les mêmes. Le hub ouvre cinq portes :

À la tête d'un média ou d'une rédaction : 6 pistes pour les directions de rédaction et de transformation éditoriale
En cabinet ministériel ou administration : 7 pistes pour élus et agents publics qui arbitrent les marchés tech
Chargé de programmes pédagogiques : 5 pistes pour les responsables de filières et de contenus de formation
Chercheur, juriste, expert : 5 pistes pour structurer l'expertise et la jurisprudence
Militant, activiste, citoyen engagé : 5 pistes pour coordonner coalitions et mouvements

Je te laisse les découvrir en avant-première (le hub est public, mais les fiches sont accessibles uniquement aux abonnés, donc à toi)

Le prochain cycle de mise à jour est prévu fin août 2026, ça t'ouvre une fenêtre d'opportunité de 4 mois pour t'en emparer. 🚀

Si une piste te semble manquer ou si tu veux échanger sur l'application concrète à ton terrain, mon agenda est ouvert et je serai ravi d'en discuter avec toi et tes équipes.

Comment (ré)activer nos libertés numériques ?
Une trentaine de pistes d’action concrètes, mises à jour régulièrement par notre veille, à développer selon la posture, les enjeux et les moyens qui vous correspondent le mieux.

📚 Si tu les as manqués

Jeunes européens : « Réparez les plateformes, ne nous bannissez pas »Une coalition de jeunes européens rejette les interdictions d'âge et exige une régulation systémique des plateformes plutôt que l'exclusion des utilisateurs.

Jeunes européens : « Réparez les plateformes, ne nous bannissez pas »
Coalition de jeunes européens rejette les interdictions d’âge et exige une régulation systémique des plateformes plutôt que l’exclusion des utilisateurs.

Arizona State découpe ses profs en modules IA sans leur demander — L'université transforme secrètement des cours en clips décontextualisés pour alimenter une plateforme IA commerciale. Les enseignants découvrent leurs visages dans des modules qu'ils n'ont jamais validés.

University Professors Disturbed to Find Their Lectures Chopped Up and Turned Into AI Slop
ASU Atomic, a new tool in beta at Arizona State University, takes faculty lectures and chops them into extremely short clips, that AI then attempts to turn into learning materials.

Comment Washington transforme l'Europe en terrain d'expérimentation MAGA — 500 000 dollars de la diplomatie américaine vers des think tanks européens pour fragiliser la régulation des plateformes. Politico documente le bélier idéologique.

Comment Washington transforme l’Europe en terrain d’expérimentation MAGA
500.000 dollars pour contourner la régulation européenne des plateformes via des think tanks alignés. La diplomatie américaine devient un bélier idéologique.

Quand YouTube devient la télé des enfants : l'effondrement du contrôle parentalLes plateformes abandonnent le contenu jeunesse original tandis que YouTube capture 70% des ados américains quotidiennement, fragmentant l'attention et compliquant la supervision parentale

Quand YouTube devient la télé des enfants : l’effondrement du contrôle parental
Les plateformes abandonnent le contenu jeunesse original tandis que YouTube capture 70% des ados américains quotidiennement, fragmentant l’attention et compliquant la supervision parentale.

Netflix automatise les effets visuels : 2 millions d'emplois menacés – L'acquisition d'InterPositive par Netflix menace directement les emplois d'effets visuels en Inde, Corée du Sud et Amérique latine, révélant l'asymétrie géographique de l'automatisation IA.

Netflix automatise les effets visuels : 2 millions d’emplois menacés
L’acquisition d’InterPositive par Netflix menace directement les emplois d’effets visuels en Inde, Corée du Sud et Amérique latine, révélant l’asymétrie géographique de l’automatisation IA.

Palantir : quand les employés découvrent qu'ils alimentent la machine — Après la mort d'Alex Pretti et la frappe sur une école iranienne, les ingénieurs de Palantir interrogent leur rôle dans l'appareil répressif de Trump. La désertion organisée comme prochaine bataille.

Palantir : quand les employés découvrent qu’ils alimentent la machine
Les employés de Palantir questionnent leur rôle dans l’appareil répressif de Trump après la mort d’Alex Pretti et la frappe sur une école iranienne.

Quand la satire rachète la désinformation : The Onion transforme InfoWars — The Onion finalise l'acquisition d'InfoWars d'Alex Jones avec le soutien des familles de Sandy Hook. Une machine à mensonges devient plateforme satirique. Bonne nouvelle de la semaine.

Quand la satire rachète la désinformation : The Onion transforme InfoWars
The Onion finalise l’acquisition d’InfoWars d’Alex Jones avec le soutien des familles de Sandy Hook, transformant une machine à mensonges en plateforme satirique.

Surveillance côtière : quand la frontière s'installe dans les quartiers — La CBP veut planter une tour IA à 2,4 km de la côte californienne, capable de tracer chaque mouvement dans une ville de 62 000 habitants. L'agence refuse toute clause contractuelle de limitation.

Surveillance côtière : quand la frontière s’installe dans les quartiers
CBP veut installer une tour de surveillance IA à 2,4 km de la côte californienne, capable de traquer chaque mouvement dans une ville de 62 000 habitants. L’agence refuse toute limitation contractuelle sur l’espionnage des quartiers résidentiels.

🎬 Backstage

Cap symbolique cette semaine sur LinkedIn : 2 millions d'impressions cumulées et plus de 3 000 nouveaux abonnés.

Merci à toutes celles et ceux qui partagent, commentent, contredisent. C'est ce flux quotidien qui alimente ma veille hebdomadaire et qui rend possible la consolidation que tu trouves dans la section pistes d'action ci-dessus. 🙏


313 signatures ... and counting

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 Tu en veux plus ? On en discute !

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedInBlueskyMastodon ou Facebook !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda.

À dimanche prochain,

Damien