Les chercheurs Meta savaient : autoplay et scroll infini créent l'addiction

Des documents internes révèlent que Meta étudiait dès 2018 les mécanismes d'addiction de ses plateformes, tout en niant publiquement ces risques lors des procès en cours.

26 févr. 2026
Les chercheurs Meta savaient : autoplay et scroll infini créent l'addiction
Facebook researchers previously proposed studying whether features were ‘addictive,’ documents show | CNN Business
Meta executives took the stand in a Los Angeles courtroom earlier this month and testified that while use of the company’s platforms could become problematic, it couldn’t be considered addiction.

Cette révélation frappe par son timing : au moment même où les dirigeants de Meta jurent devant un tribunal de Los Angeles que leurs plateformes ne créent pas d'addiction, leurs propres chercheurs documentaient depuis 2018 les mécanismes précis qui génèrent des « comportements automatiques et non désirés ». Les documents internes évoquent explicitement l'autoplay vidéo, le scroll infini et les notifications de « like » comme générateurs de dépendance. L'ironie du système se révèle dans cette phrase d'un chercheur interne : « Instagram est une drogue, nous sommes des dealers. »

"Ces fonctionnalités peuvent conduire à des sentiments de manipulation, à un manque de contrôle sur certains comportements, et à des sentiments de dépendance liés à la vérification ou à l'utilisation de Facebook qui pourraient être liés à un bien-être moindre [traduit de l'anglais]"

— Chercheurs Facebook, Équipe de recherche interne

La proposition d'audit externe de 2018, impliquant notamment Tristan Harris du Center for Humane Technology, a été abandonnée par crainte que les recommandations soient « inacceptables pour les équipes produit ». Cette asymétrie entre recherche interne et communication publique illustre la captivité des entreprises par leur modèle économique : elles produisent les connaissances qui pourraient les réguler, mais ne peuvent les appliquer sans remettre en cause leur rentabilité.

Points de vigilance

Risque de se focaliser sur la responsabilité individuelle des entreprises plutôt que sur les incitations systémiques du modèle publicitaire qui structure leurs choix...

Et maintenant ?

  • 🤘 Transformer l'expertise interne en audit public obligatoire par coalition chercheurs-régulateurs

Exploiter ces révélations pour créer une alliance entre chercheurs académiques en psychologie numérique, lanceurs d'alerte tech et régulateurs européens. Objectif : imposer un droit d'audit des recherches internes sur les mécanismes d'addiction, avec publication obligatoire. Le précédent tobacco papers montre que l'expertise cachée peut devenir levier réglementaire.

→ On saura que ça marche quand Meta et les autres plateformes publieront leurs recherches internes sur l'addiction avant d'être contraints par la justice

  • 🤘 Construire des recours collectifs transnationaux basés sur la preuve documentée

Utiliser cette documentation interne comme socle pour des class actions coordonnées entre districts scolaires européens et américains. Mécanisme : mutualiser les frais juridiques et l'expertise technique pour créer un précédent jurisprudentiel contraignant les plateformes à modifier leurs algorithmes d'engagement.

→ On saura que ça marche quand les plateformes négocieront des accords-cadres plutôt que de plaider cas par cas

  • 💪 Documenter ses propres patterns d'usage pour créer une base de données citoyenne

Transformer chaque utilisateur en collecteur de preuves : tracker son temps d'écran, ses moments de scroll automatique, ses réactions aux notifications. Créer une base collaborative anonymisée qui alimente les recherches indépendantes et les procès en cours. L'effet de réseau : plus on documente, plus on rend visible l'ampleur systémique.

→ On saura que ça marche quand les plateformes intégreront des outils de mesure d'addiction par défaut pour éviter la collecte citoyenne


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !