Bixonimania : quand l'IA transforme une blague en vérité scientifique

Des chercheurs suédois ont inventé une fausse maladie pour piéger les IA. En quelques semaines, ChatGPT et Gemini la présentaient comme réelle, et elle s'est propagée dans la littérature académique.

23 avr. 2026
Bixonimania : quand l'IA transforme une blague en vérité scientifique
Researchers Invented a Fake Disease to Trick AI and the Funniest Possible Thing Happened
Researchers uploaded two fake studies about a fake skin condition to a preprint server to trick large language models.

L'expérience menée par Almira Osmanovic Thunström révèle un mécanisme inquiétant : il suffit de quelques semaines pour qu'une invention pure se transforme en 'fait' validé par l'IA. L'équipe de Göteborg a créé 'bixonimania', une prétendue maladie de peau causée par les écrans, avec des références volontairement absurdes à Star Trek et aux Simpson. Malgré ces signaux d'alarme évidents, les modèles de Google et OpenAI ont mordu à l'hameçon. Plus grave : la fausse maladie a commencé à être citée dans de vraies publications académiques, créant une boucle de légitimation.

"C'est inquiétant quand ces affirmations majeures passent dans la littérature sans être remises en question, ou passent la peer-review sans être contestées"

— Almira Osmanovic Thunström, Chercheuse médicale, Université de Göteborg

Quand Nature a interrogé ChatGPT, l'IA a d'abord douté, puis s'est ravisée quelques jours plus tard pour affirmer que la maladie était réelle. Cette contamination révèle l'effondrement des garde-fous : l'IA aspire tout contenu sans discernement, les chercheurs s'appuient sur l'IA pour leurs références, et les comités de lecture laissent passer des aberrations. Le cycle de validation scientifique traditionnel s'autodétruit.

Points de vigilance

Risque de focaliser sur l'anecdote plutôt que sur le mécanisme systémique. L'IA n'est qu'un révélateur de la fragilité du processus de validation scientifique.

Et maintenant ?

  • 🤘 Créer des consortiums de vérification croisée entre revues scientifiques

Alliance entre éditeurs académiques (Nature, Science, PLOS) pour partager une base commune de références vérifiées et signaler les sources douteuses. Mécanisme : chaque soumission est automatiquement confrontée aux alertes du consortium avant peer-review.

→ On saura que ça marche quand les rétractations pour références fictives chuteront de 80% dans les revues participantes.

  • 🤘 Organiser des audits citoyens des bases de données d'entraînement IA

Coalitions de chercheurs indépendants et d'associations pour documenter publiquement les sources utilisées par les grands modèles. Créer une pression réputationnelle sur OpenAI, Google et Anthropic pour qu'ils révèlent leurs datasets.

→ On saura que ça marche quand au moins un acteur majeur publiera la liste complète de ses sources d'entraînement.

  • 💪 Développer des réflexes de vérification systématique des références IA

Avant d'utiliser une information fournie par ChatGPT ou Gemini, vérifier systématiquement les sources primaires. Créer des habitudes de double-vérification qui se propagent par l'exemple dans les équipes de recherche.

→ On saura que ça marche quand les formations universitaires intégreront obligatoirement des modules de fact-checking des sources IA.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆