
Meta et Google ont abandonné le fact-checking en 2025, laissant un vide dans la vérification de l'information. Veridisquo, start-up française développée en partenariat avec l’ADN.eu, propose une approche différente : au lieu de supprimer les contenus douteux, elle labellise les contenus fiables et les fait remonter dans les algorithmes. Le modèle économique repose sur les marques : elles paient plus cher pour que leurs publicités n'apparaissent que dans des environnements certifiés.
"On ne supprime pas, on réordonne ; on propulse les contenus rigoureux en haut de l'algorithme."
— Fondateurs de Veridisquo, Simon Dufeigneux et Lorenzo Benedetti
La start-up a testé son approche sur la santé mentale, domaine où 52% des vidéos TikTok sur le TDAH contiennent des informations inexactes selon une étude de l'Université d'East Anglia. Seules 2% des vidéos analysées par Veridisquo présentent un niveau de rigueur académique élevé. L'enjeu dépasse la technique : créer un marché où la qualité de l'information devient un avantage concurrentiel plutôt qu'un coût.
Points de vigilance
Risque de créer une information à deux vitesses selon les moyens publicitaires. Le modèle dépend entièrement de la volonté des marques à payer plus cher. Possible capture par les intérêts commerciaux des annonceurs.
Et maintenant ?
- 🤘 Créer un consortium européen de certification éditoriale indépendant
Fédérer médias, universités et ONG pour développer des standards communs de vérification, évitant la capture par les intérêts publicitaires. Modèle coopératif financé par cotisations des membres plutôt que par les annonceurs.
→ On saura que ça marche quand au moins 5 pays européens adopteront les mêmes critères de certification éditoriale
- 💪 Auditer la cohérence entre engagements RSE et placements publicitaires
Documenter les écarts entre discours corporate sur la désinformation et budgets publicitaires réels. Publier des classements d'entreprises selon leurs pratiques de brand safety effective.
→ On saura que ça marche quand les entreprises intégreront la qualité informationnelle dans leurs rapports RSE obligatoires
- ✊ Coordonner un retrait des budgets publicitaires des contenus non-vérifiés
Organiser une coalition d'annonceurs exigeant la traçabilité complète de leurs placements publicitaires et le retrait automatique des environnements non-certifiés par des tiers indépendants.
→ On saura que ça marche quand les plateformes proposeront par défaut des inventaires publicitaires certifiés plutôt que des options premium
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆
