
Google traite cinq mille milliards de requêtes par an. Ses résumés IA se trompent dans 9% des cas selon une analyse indépendante — soit des centaines de milliers de fausses informations diffusées chaque minute. Cette ampleur dépasse tout ce que l'humanité a connu en matière de désinformation systémique. Le problème dépasse le simple dysfonctionnement technique : les utilisateurs font une "capitulation cognitive" face à l'autorité artificielle.
"Seuls 8 pour cent des utilisateurs vérifient réellement la réponse d'une IA"
— Étude citée, Recherche sur les comportements utilisateurs
Seuls 8% vérifient les réponses de l'IA, et 80% suivent ses conseils même quand ils sont manifestement faux. Google aggrave le phénomène en déployant des modèles moins fiables (Gemini 2 à 85% de précision) avant de les améliorer sur le dos des utilisateurs. Le paradoxe cruel : plus le modèle "s'améliore", plus il cite des sources qui ne soutiennent pas ses affirmations (de 37% à 56% de réponses "non fondées"). On assiste à l'industrialisation de l'erreur avec l'autorité de la vérité.
Points de vigilance
Google conteste l'analyse externe mais ses propres tests internes confirment 28% d'erreur sur Gemini 3. Le risque d'effet Streisand si Google surréagit aux critiques.
Et maintenant ?
- 🤘 Créer un consortium journalistique européen de fact-checking IA
Alliance Reuters-AFP-DPA-Ansa pour vérifier en temps réel les résumés IA des moteurs de recherche. Protocole ouvert permettant à tout média d'intégrer des alertes 'vérifié/non vérifié' directement dans les résultats Google via extension navigateur.
→ On saura que ça marche quand Google négociera des accords-cadres avec le consortium plutôt que de subir des vérifications externes
- 🤘 Transformer les bibliothèques en centres de résistance à la désinformation IA
Réseau international de bibliothèques offrant des ateliers 'anatomie du mensonge IA' avec accès à des outils de vérification professionnels. Chaque bibliothèque devient un point de formation à la vérification critique face aux réponses autoritaires de l'IA.
→ On saura que ça marche quand les recherches complexes recommenceront à transiter par les bibliothèques plutôt que par l'IA seule
- 💪 Développer le réflexe de vérification croisée systématique
Pour chaque réponse IA sur un sujet important, consulter au minimum deux sources indépendantes avant d'agir. Utiliser la règle '2 sources + 1 expert' : deux articles de médias différents plus un contact qualifié dans le domaine.
→ On saura que ça marche quand les métriques de trafic vers les sources primaires remonteront malgré la commodité de l'IA
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆

