Éduquer les « WhatsApp aunties » contre la désinformation IA

Un journaliste du Guardian témoigne de sa propre chute face au contenu IA et propose d'utiliser les fêtes pour éduquer nos proches aux nouveaux risques de désinformation générée artificiellement.

24 déc. 2025
Éduquer les « WhatsApp aunties » contre la désinformation IA
Photo by Tushar Mahajan / Unsplash

🎧 Version audio

Écoutez cet article lu par Damien Van Achter

How to use the holidays to stop our ‘WhatsApp aunties’ falling for AI
Family members can be sweet and relentless but how can we aid our relatives in the age of new tech and device addiction

Ce qui ressort de cet article, c'est d'abord l'honnêteté rare d'un journaliste admettant être tombé dans le piège du contenu IA. Cette confession révèle à quel point la sophistication croissante des contenus générés artificiellement rend obsolètes nos réflexes habituels de détection.

L'auteur propose de transformer les réunions de famille en opportunités d'éducation numérique bienveillante, abandonnant la condescendance habituelle envers les « WhatsApp aunties » pour reconnaître que nous sommes tous vulnérables. Cette approche intergénérationnelle assume que la résistance à la désinformation IA nécessite une solidarité familiale active plutôt que des leçons moralisatrices.

L'initiative suggère aussi que les périodes de rassemblement familial constituent des moments privilégiés pour transmettre des compétences critiques, profitant des liens de confiance existants.

Points de vigilance : Risque de paternalisme numérique déguisé, confusion entre vulnérabilité technique et compétence critique, instrumentalisation des liens familiaux pour l'éducation numérique

7/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework: Les 5 piliers de la Liberté
Certains articles publiés ici sont produits grâce à une grille d’analyse inspirée des 5 piliers de la Liberté, théorisés par l’historien Anthony Snyder dans son livre “De la Liberté” (2024). En croisant les piliers de Snyder et sa définition de la liberté positive/négative avec ceux de l’innovation dite “systémique”

Et maintenant ?

Face à ces enjeux, plusieurs pistes d'action systémique se dessinent.

🤘 On pourrait imaginer systématiser ces « ateliers familiaux » de fact-checking en créant des ressources standardisées pour les conversations de fêtes.

Non pas des guides moralisateurs, mais des jeux collaboratifs où chaque génération partage ses vulnérabilités numériques. L'idée : transformer l'éducation critique en moment de complicité plutôt qu'en leçon descendante. Les plateformes communautaires pourraient développer des « kits de conversation » adaptés aux contextes familiaux, avec des exemples concrets de deepfakes ou de contenus trompeurs que même les « experts » ont ratés.

On saura que ça marche quand les conversations familiales sur le numérique cesseront d'être des rapports de force générationnels, et quand on verra émerger des groupes WhatsApp familiaux dédiés au fact-checking collaboratif.

💪 Une voie serait de reconnaître que l'éducation aux médias doit devenir intergénérationnelle et bidirectionnelle.

Les institutions éducatives pourraient expérimenter des programmes où les plus jeunes enseignent la détection de deepfakes tandis que les aînés partagent leur expérience des manipulations médiatiques « classiques ». Cette approche casserait le cercle vicieux où chaque génération développe ses angles morts numériques en vase clos. Les médiathèques, centres sociaux et associations familiales deviendraient des laboratoires de résistance collective à la désinformation IA.

On saura que ça marche quand les cursus d'éducation aux médias intégreront systématiquement des modules intergénérationnels, et quand les espaces publics locaux proposeront régulièrement des « ateliers famille » de décryptage numérique.

L'enjeu structurel serait de créer des infrastructures de vérification distribuées qui s'appuient sur les réseaux sociaux existants plutôt que de les combattre.

Imaginons des systèmes de fact-checking qui s'intègrent nativement dans WhatsApp, Telegram ou Signal, alimentés par des communautés locales formées aux techniques de vérification. Cette approche reconnaîtrait que les « WhatsApp aunties » ont des réseaux de confiance puissants qu'il vaut mieux augmenter que remplacer. Les régulateurs pourraient encourager cette décentralisation du fact-checking en soutenant les initiatives communautaires plutôt que de se reposer uniquement sur les géants tech.

On saura que ça marche quand les outils de fact-checking seront aussi répandus dans nos messageries que les correcteurs orthographiques, et quand chaque communauté locale disposera de ses propres « référents vérification » formés et reconnus.


Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les moi et documentons les ensemble !

Plus d'articles, par "pilier" de la Liberté, selon Snyder

Contact

Damien Van Achter (davanac)
Consultant en souveraineté numérique

Email: d@van.ac
Téléphone: +32 489 24 76 78

Réseaux sociaux:

Partenaires et collaborations

Formateur et consultant pour :

Concepts clés

© 2025 Damien Van Achter - lab.davanac