
L'expérience menée par Almira Osmanovic Thunström révèle un mécanisme inquiétant : il suffit de quelques semaines pour qu'une invention pure se transforme en 'fait' validé par l'IA. L'équipe de Göteborg a créé 'bixonimania', une prétendue maladie de peau causée par les écrans, avec des références volontairement absurdes à Star Trek et aux Simpson. Malgré ces signaux d'alarme évidents, les modèles de Google et OpenAI ont mordu à l'hameçon. Plus grave : la fausse maladie a commencé à être citée dans de vraies publications académiques, créant une boucle de légitimation.
"C'est inquiétant quand ces affirmations majeures passent dans la littérature sans être remises en question, ou passent la peer-review sans être contestées"
— Almira Osmanovic Thunström, Chercheuse médicale, Université de Göteborg
Quand Nature a interrogé ChatGPT, l'IA a d'abord douté, puis s'est ravisée quelques jours plus tard pour affirmer que la maladie était réelle. Cette contamination révèle l'effondrement des garde-fous : l'IA aspire tout contenu sans discernement, les chercheurs s'appuient sur l'IA pour leurs références, et les comités de lecture laissent passer des aberrations. Le cycle de validation scientifique traditionnel s'autodétruit.
Points de vigilance
Risque de focaliser sur l'anecdote plutôt que sur le mécanisme systémique. L'IA n'est qu'un révélateur de la fragilité du processus de validation scientifique.
Et maintenant ?
- 🤘 Créer des consortiums de vérification croisée entre revues scientifiques
Alliance entre éditeurs académiques (Nature, Science, PLOS) pour partager une base commune de références vérifiées et signaler les sources douteuses. Mécanisme : chaque soumission est automatiquement confrontée aux alertes du consortium avant peer-review.
→ On saura que ça marche quand les rétractations pour références fictives chuteront de 80% dans les revues participantes.
- 🤘 Organiser des audits citoyens des bases de données d'entraînement IA
Coalitions de chercheurs indépendants et d'associations pour documenter publiquement les sources utilisées par les grands modèles. Créer une pression réputationnelle sur OpenAI, Google et Anthropic pour qu'ils révèlent leurs datasets.
→ On saura que ça marche quand au moins un acteur majeur publiera la liste complète de ses sources d'entraînement.
- 💪 Développer des réflexes de vérification systématique des références IA
Avant d'utiliser une information fournie par ChatGPT ou Gemini, vérifier systématiquement les sources primaires. Créer des habitudes de double-vérification qui se propagent par l'exemple dans les équipes de recherche.
→ On saura que ça marche quand les formations universitaires intégreront obligatoirement des modules de fact-checking des sources IA.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆

