Quand les marques financent la fiabilité de l'information

Veridisquo propose un modèle économique inédit : faire payer les annonceurs pour placer leurs publicités uniquement dans des contenus certifiés fiables, créant un marché premium de l'information vérifiée.

11 mai 2026
Quand les marques financent la fiabilité de l'information
Le « Yuka de l’info » qui veut labelliser les contenus fiables en ligne
Après le retrait du fact-checking par Meta et Google, la start-up française Veridisquo propose de scorer la fiabilité des contenus vidéo en ligne grâce à un algorithme hybride.

Meta et Google ont abandonné le fact-checking en 2025, laissant un vide dans la vérification de l'information. Veridisquo, start-up française développée en partenariat avec l’ADN.eu, propose une approche différente : au lieu de supprimer les contenus douteux, elle labellise les contenus fiables et les fait remonter dans les algorithmes. Le modèle économique repose sur les marques : elles paient plus cher pour que leurs publicités n'apparaissent que dans des environnements certifiés.

"On ne supprime pas, on réordonne ; on propulse les contenus rigoureux en haut de l'algorithme."

— Fondateurs de Veridisquo, Simon Dufeigneux et Lorenzo Benedetti

La start-up a testé son approche sur la santé mentale, domaine où 52% des vidéos TikTok sur le TDAH contiennent des informations inexactes selon une étude de l'Université d'East Anglia. Seules 2% des vidéos analysées par Veridisquo présentent un niveau de rigueur académique élevé. L'enjeu dépasse la technique : créer un marché où la qualité de l'information devient un avantage concurrentiel plutôt qu'un coût.

Points de vigilance

Risque de créer une information à deux vitesses selon les moyens publicitaires. Le modèle dépend entièrement de la volonté des marques à payer plus cher. Possible capture par les intérêts commerciaux des annonceurs.

Et maintenant ?

  • 🤘 Créer un consortium européen de certification éditoriale indépendant

Fédérer médias, universités et ONG pour développer des standards communs de vérification, évitant la capture par les intérêts publicitaires. Modèle coopératif financé par cotisations des membres plutôt que par les annonceurs.

→ On saura que ça marche quand au moins 5 pays européens adopteront les mêmes critères de certification éditoriale

  • 💪 Auditer la cohérence entre engagements RSE et placements publicitaires

Documenter les écarts entre discours corporate sur la désinformation et budgets publicitaires réels. Publier des classements d'entreprises selon leurs pratiques de brand safety effective.

→ On saura que ça marche quand les entreprises intégreront la qualité informationnelle dans leurs rapports RSE obligatoires

  • ✊ Coordonner un retrait des budgets publicitaires des contenus non-vérifiés

Organiser une coalition d'annonceurs exigeant la traçabilité complète de leurs placements publicitaires et le retrait automatique des environnements non-certifiés par des tiers indépendants.

→ On saura que ça marche quand les plateformes proposeront par défaut des inventaires publicitaires certifiés plutôt que des options premium


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆