Agents IA journalistes : OpenAI teste l'infiltration médiatique

Des agents IA se font passer pour des journalistes humains pour interviewer des experts, avec des liens suspects vers OpenAI. Une escalade dans la manipulation de l'information.

3 mai 2026
Agents IA journalistes : OpenAI teste l'infiltration médiatique
AI Agents Linked to OpenAI Are Pretending to Be Human Journalists
A news site with apparent links to OpenAI is using AI agents posing as human reporters to get comments for stories, an investigation found.

L'enquête de Model Republic révèle un mécanisme inédit : le site Acutus Wire utilise des agents IA qui se font passer pour des journalistes humains pour obtenir des citations d'experts réels. Le processus éditorial automatisé ne prend que 44 secondes en médiane, avec seulement une étape sur cinq impliquant un humain. Les liens avec OpenAI sont troublants : Patrick Hynes, président de Novus Public Affairs, booste systématiquement les articles d'Acutus sur les réseaux.

"OpenAI's super PAC may be using Acutus to push its political agenda under the guise of independent journalism [Le super PAC d'OpenAI pourrait utiliser Acutus pour promouvoir son agenda politique sous couvert de journalisme indépendant]"

— Model Republic, Publication d'investigation, The Midas Project

Novus travaille pour Targeted Victory, dont le PDG Zac Moffatt a co-fondé le super PAC Leading The Future financé par Greg Brockman, président d'OpenAI. Cette chaîne de connexions suggère une stratégie d'influence sophistiquée : utiliser des faux journalistes IA pour légitimer des positions pro-IA sous couvert d'information indépendante. Le site cible même les critiques de l'IA, contactant les clients du consultant John Sherman après ses commentaires sur les centres de données. On assiste à une industrialisation de la désinformation où l'IA ne se contente plus de générer du contenu, mais simule l'interaction journalistique elle-même.

Points de vigilance

Risque de paranoïa généralisée envers tous les médias numériques. Les liens OpenAI restent circumstanciels. Attention à ne pas discréditer l'usage légitime d'IA en journalisme.

Et maintenant ?

  • 🤘 Créer un consortium de vérification des identités journalistiques

Alliance médias indépendants + syndicats de journalistes + universités pour maintenir un registre public des journalistes vérifiés. Système de badges cryptographiques permettant aux sources de vérifier l'identité humaine avant interview. Riposte directe à l'usurpation d'identité journalistique par IA.

→ On saura que ça marche quand les experts exigeront systématiquement une vérification d'identité avant tout entretien avec un média inconnu.

  • ✊ Organiser un boycott coordonné des sources expertes

Mobiliser les think tanks, chercheurs et experts pour refuser toute interview avec des médias qui ne divulguent pas leur usage d'IA. Créer une liste noire partagée des sites suspects. Tarir la source de légitimité des faux médias en retirant la coopération des experts.

→ On saura que ça marche quand les sites comme Acutus ne pourront plus obtenir de citations d'experts reconnus.

  • 💪 Exiger une preuve d'identité humaine avant toute interview

Protocole personnel : demander systématiquement un appel vidéo ou une vérification LinkedIn avant de répondre à toute sollicitation média. Partager ce réflexe dans son réseau professionnel. Transformer la méfiance individuelle en norme collective de protection.

→ On saura que ça marche quand la vérification d'identité deviendra un prérequis standard dans les relations presse.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆