
Cette étude BMJ Open révèle un paradoxe saisissant : les chatbots IA donnent des réponses médicales fausses dans 50% des cas, mais les présentent avec une autorité trompeuse. Sept chercheurs ont testé ChatGPT, Gemini, Grok, Meta AI et DeepSeek sur 250 questions de santé. Résultat : 20% de réponses hautement problématiques, 50% problématiques, et des références bidonnées dans 60% des cas.
"Les modèles de langage ne savent pas les choses. Ils prédisent le mot suivant le plus statistiquement probable basé sur leurs données d'entraînement et le contexte. Ils ne pèsent pas les preuves ou ne font pas de jugements de valeur."
— Équipe de recherche, Chercheurs, étude BMJ Open
Le plus troublant ? Seules 2 questions sur 250 ont été refusées par les chatbots, qui préfèrent inventer plutôt que d'avouer leurs limites. L'asymétrie est brutale : les IA obtiennent 95% de bonnes réponses en laboratoire, mais les utilisateurs réels n'en tirent que 35% d'informations correctes. Cette transformation de l'incertitude en fausse certitude crée une nouvelle forme de désinformation médicale, d'autant plus dangereuse qu'elle emprunte les codes de l'autorité scientifique.
Points de vigilance
Risque de régulation excessive qui freinerait l'innovation. Les versions payantes et futures pourraient améliorer les performances. L'étude utilise des questions piège qui amplifient les erreurs.
Et maintenant ?
- 🤘 Créer un consortium médecins-développeurs pour l'audit continu des IA santé
Alliance entre ordres professionnels médicaux et communautés open source pour tester systématiquement les chatbots sur des cas cliniques réels. Publier les résultats en temps réel, créer une pression concurrentielle sur la qualité plutôt que sur le marketing.
→ On saura que ça marche quand les éditeurs d'IA publieront leurs scores d'audit médical comme argument commercial principal.
- 💪 Développer des réflexes de vérification croisée avant toute décision médicale
Systématiser la triangulation : chatbot + source médicale officielle + professionnel de santé. Traiter les réponses IA comme des hypothèses à vérifier, jamais comme des diagnostics. Créer un effet d'apprentissage collectif en partageant les erreurs détectées.
→ On saura que ça marche quand les consultations médicales incluront systématiquement la discussion des recherches IA préalables du patient.
- ✊ Organiser des campagnes de red teaming public contre les fausses autorités IA
Mobiliser chercheurs, journalistes et citoyens pour documenter massivement les erreurs médicales des chatbots. Créer une base de données publique des échecs, forcer la transparence sur les limites. Retirer le consentement à l'autorité non méritée.
→ On saura que ça marche quand les chatbots afficheront des avertissements médicaux aussi visibles que leurs réponses.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆


