L'IA ne résout pas la crise informationnelle : elle la sophistique en offrant une façade technologique respectable à des pratiques manipulatoires anciennes, tout en créant de nouveaux alibis pour les fraudeurs.
Une dynamique perverse émerge de ces quatre situations : l'intelligence artificielle devient simultanément l'outil et l'excuse de la manipulation informationnelle. Le créateur de World Monitor l'avoue lui-même : voulant extraire le signal du bruit, il a créé une machine à bruit qui transforme la veille en addiction passive. Cette pathologie du monitoring compulsif illustre parfaitement comment l'IA peut déguiser l'impuissance en illusion de contrôle.

Cette sophistication de la tromperie atteint son paroxysme avec l'industrialisation des deepfakes en Asie du Sud-Est. Des centres criminels recrutent massivement des 'modèles IA' pour incarner de fausses identités lors d'appels vidéo truqués, transformant l'arnaque sentimentale en métier avec des salaires jusqu'à 7 000$ mensuels. L'asymétrie est totale : face à des victimes isolées, une machine industrielle combine trafic humain, deepfakes et psychologie de la manipulation.

Parallèlement, l'IA devient l'alibi universel des fraudeurs pris en flagrant délit. Quand Laimonas Jakštys se fait prendre avec ses lunettes connectées au tribunal, il prétend que c'était ChatGPT qui parlait dans son téléphone. Cette stratégie révèle un angle mort majeur : l'invisibilité croissante de la manipulation technologique permet de nouveaux types de triche tout en offrant des excuses prêtes à l'emploi.

Le cas Grok illustre le mécanisme le plus pervers : l'IA confirme ou infirme les mêmes faits selon la formulation des questions, créant une boucle toxique où elle légitime ses propres dysfonctionnements. Les utilisateurs obtiennent une 'validation' algorithmique de fausses informations en orientant leurs requêtes, tandis que les plateformes monétisent ces contenus engageants via leurs systèmes de rémunération.
"Des affirmations infondées selon lesquelles cette vidéo serait générée par une IA (ce qui est faux) parce que Benjamin Netanyahou y aurait six doigts (ce qui est faux) et qu'il serait réellement mort (ce qui est faux également) ont accumulé des millions et des millions de vues sur cette plateforme"

Ce qui relie ces situations, c'est l'émergence d'un nouveau rapport au réel où la technologie ne sert plus à établir la vérité mais à la négocier selon les intérêts de chacun.
Points de vigilance : Risque de sur-régulation qui limiterait les usages légitimes de l'IA (assistance aux handicapés, outils de fact-checking). Attention aux solutions techniques qui déplacent le problème sans traiter les incitations économiques sous-jacentes. Éviter la stigmatisation des travailleurs migrants et des travailleuses du sexe pris dans ces systèmes. La diabolisation de l'IA peut masquer les responsabilités humaines dans la conception et l'usage de ces outils.
9/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Et maintenant ?
Le croisement de ces sources fait apparaître des pistes d'action que chaque article seul ne révélait pas.
🤘 Créer un observatoire européen des usages détournés de l'IA
Alliance entre journalistes d'investigation, chercheurs en IA, magistrats et régulateurs pour documenter systématiquement les détournements criminels ou frauduleux de l'IA. Publier des rapports trimestriels croisant les techniques (deepfakes, prompt engineering malveillant, wearables détournés) et les secteurs (justice, finance, relations). Objectif : créer une jurisprudence partagée et des protocoles de détection.
→ On saura que ça marche quand les tribunaux européens disposeront de protocoles standardisés de détection des manipulations IA et que les taux de condamnation pour fraude technologique augmenteront de 300%.
✊ Organiser un boycott coordonné des modèles économiques de l'engagement toxique
Coalition d'annonceurs, d'investisseurs et d'ONG pour conditionner leurs budgets à des métriques de qualité informationnelle plutôt que d'engagement brut. Cibler spécifiquement les systèmes de rémunération qui monétisent la désinformation (X, Telegram, TikTok). Créer un label 'Information de qualité' pour les plateformes qui privilégient la vérification sur la viralité.
→ On saura que ça marche quand les plateformes modifieront leurs algorithmes de recommandation pour pénaliser les contenus fact-checkés comme faux et que leurs revenus publicitaires dépendront de scores de fiabilité.
💪 Développer une littératie de l'interrogation critique des IA
Apprendre à tester la cohérence des IA conversationnelles : reformuler les questions sous plusieurs angles, demander les sources, questionner les certitudes, croiser avec des outils de fact-checking. Créer une culture du 'double-check algorithmique' comme réflexe citoyen face aux réponses d'IA. Partager ces techniques dans son réseau familial et professionnel.
→ On saura que ça marche quand les cours de littératie numérique incluront systématiquement des modules sur l'interrogation critique des IA et que 70% des utilisateurs adopteront des réflexes de vérification croisée.
Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda.



