L'Australie l'a votée il y a trois mois. La France l'examine en procédure accélérée. Le Royaume-Uni y réfléchit. En Belgique, Jacqueline Galant (MR), ministre des Médias en Fédération Wallonie-Bruxelles, et Vanessa Matz (Les Engagés), ministre fédérale du Numérique, veulent également interdire les réseaux sociaux aux moins de 15 ans dès cette année.
L'intention est certes louable. Le problème, c'est que cette mesure ne fonctionne pas — et qu'elle pourrait même aggraver ce qu'elle prétend combattre.
Partout, le même scénario se répète : les adolescents contournent, les plateformes se frottent les mains, et les États se retrouvent à gérer des bases de données dont on préfère ne pas imaginer l'usage sous des gouvernements moins bienveillants. Des gardes fous existent aujourd'hui. Mais demain ?
Et si l'interdiction protégeait surtout… les plateformes ? Le problème n'est pas l'âge des utilisateurs. C'est le modèle d'affaires des plateformes. Et tant qu'on refuse de le toucher, on légifère dans le vide — en se donnant bonne conscience.
Comme le résume danah boyd, fondatrice du Data & Society Research Institute, qui étudie les adolescents et les réseaux sociaux depuis presque vingt ans : « Les réseaux sociaux causent-ils des problèmes de santé mentale ? Ou est-ce l'endroit où les problèmes de santé mentale deviennent visibles ? Je peux vous garantir qu'il y a des exemples des deux. »
Les contournements massifs, symptôme d'une loi inapplicable
Trois mois après l'entrée en vigueur de l'interdiction australienne, le bilan est sans appel. Les adolescents ont massivement migré vers des applications non couvertes par la loi — Lemon8 (propriété de ByteDance, maison-mère de TikTok), Yope, WhatsApp. Trois enfants sur quatre interrogés déclarent vouloir continuer à utiliser les réseaux sociaux. VPN, faux âges, comptes créés avant l'interdiction : les contournements sont massifs, documentés, prévisibles.
Ce n'est pas un échec de mise en œuvre. C'est la démonstration qu'on ne régule pas des usages en interdisant des outils.
Le cadeau empoisonné fait aux plateformes
Mais le plus pervers est ailleurs. Olivier Ertzscheid pointe une conséquence que personne ne semble vouloir voir : si plus aucun mineur de moins de 15 ans, aux yeux de la loi, ne peut et ne doit être présent sur ces plateformes, alors le peu de retenue et de régulation auxquelles elles s'astreignaient jusqu'ici — par crainte d'une atteinte trop profonde à leur image — deviendra instantanément caduque.

En clair : pourquoi Meta ou TikTok continueraient-ils à modérer les contenus violents ou pornographiques accessibles aux adolescents, puisque, légalement, il n'y a plus d'adolescents ? L'interdiction ne protège pas les mineurs. Elle offre aux plateformes un alibi en béton pour cesser de s'en préoccuper.
Et la responsabilité ? Elle bascule intégralement sur les familles. Si un adolescent de 14 ans accède à des contenus violents malgré l'interdiction, la faute sera imputable à la « défaillance parentale » ou au « contournement délibéré » — jamais à l'architecture de la plateforme qui les a mis en avant. Olivier Ertzscheid résume : « Quoi qu'il puisse se passer, ce ne sera plus du tout la faute des plateformes. »
L'addiction aux réseaux sociaux, vraiment ?
Avant de légiférer, il serait utile de s'entendre sur le diagnostic. Or celui-ci est loin d'être consensuel. danah boyd, dans un article académique co-écrit avec María P. Angel en 2024, déconstruit ce qu'elle appelle le « techno-legal solutionism » — l'idée que des problèmes sociaux complexes comme la santé mentale des adolescents peuvent être résolus par des interventions technologiques ou législatives ciblées.
Son constat, fruit de plus de 150 entretiens avec des adolescents américains : « Les adolescents ne sont pas accros aux réseaux sociaux ; s'ils sont accros à quelque chose, c'est les uns aux autres. » Ce qui ressemble à une addiction aux écrans est souvent une addiction à la sociabilité — la même qui poussait les générations précédentes à monopoliser le téléphone familial ou à traîner au centre commercial.
Le miroir plutôt que la cause
Ce que les réseaux sociaux rendent visible, ce sont des difficultés qui existaient déjà : isolement, harcèlement, troubles alimentaires, anxiété. « Il y a des jeunes qui vivent des vies à haut risque, point final », écrit boyd. « Ils sont maltraités chaque jour à la maison. Il y a des jeunes qui luttent contre la pauvreté, l'addiction, des problèmes de santé mentale. Ils rendent cela visible en ligne. »
Le problème ? « Malheureusement, ce que nous avons tendance à faire, c'est essayer de faire disparaître Internet. Nous espérons que si nous faisons disparaître la visibilité, le problème disparaîtra. Mais ce n'est pas vrai. »
Quand la peur remplace l'écoute
Boyd pointe aussi un effet pervers des réactions adultes face aux réseaux sociaux : « Quand les adultes réagissent par la peur et l'isolement comme solution pour gérer les risques, ils sapent souvent leur crédibilité et érodent la confiance des adolescents dans les informations que les adultes leur offrent. »
Autrement dit : plus on dramatise, moins on est écouté. Et moins on est écouté, moins on peut accompagner.
Et comme le souligne Hubert Guillaud, "la popularité croissante des interdictions des réseaux sociaux, des écrans, des téléphones… traduit un retour en force de valeurs conservatrices dans nos vies numériques. Internet est devenu un champ de bataille moral. Et il est probable que cela ne nous mène nulle part."

Quand l'État joue au gendarme, sans toucher au modèle
Il y a quelque chose de confortable à annoncer une interdiction. Ça ne coûte rien, ça donne l'impression d'agir, et ça permet de pointer du doigt les « mauvais usages » plutôt que les mauvaises architectures.
Sauf que protéger supposerait de s'attaquer à ce qui rend ces plateformes toxiques : les algorithmes de recommandation qui maximisent le temps passé, les métriques d'engagement qui récompensent l'outrance, les dark patterns qui piègent l'attention. Tout cela reste intact. On préfère vérifier l'âge des utilisateurs plutôt que d'auditer le code des plateformes.
Le piège de la vérification d'âge
Et puis il y a l'éléphant dans la pièce : pour qu'une interdiction soit effective, il faut pouvoir prouver l'âge de chaque utilisateur. En Belgique, Vanessa Matz plaide pour une authentification de type « Itsme ». En Malaisie, c'est le passeport ou la carte d'identité nationale qui sont exigés.
La CNIL française a documenté le problème: utiliser un système d'authentification étatique pour accéder à des services en ligne « conduirait l'État à disposer d'une liste de connexions de nature purement privée ». Et pour les contenus sensibles, « le recours à ces dispositifs conduirait à un risque d'association d'une identité officielle à des informations intimes ».
Itsme, en Belgique, est une entreprise privée — pas une base de données gouvernementale. Mais la question reste entière : qui conserve les logs de vérification ? Qui peut y accéder ? Sous quelles conditions ? La politique de confidentialité d'Itsme précise que les données peuvent être divulguées « si nous sommes tenus de le faire par la loi ou une procédure judiciaire », « aux autorités étatiques conformément à leurs compétences », ou « dans le cadre d'une enquête sur une activité frauduleuse ou illégale ».
C'est standard et encadré par le RGPD. Mais cela signifie aussi que les traces de vérification d'âge — même compartimentées — peuvent être croisées avec une identité dans certains contextes judiciaires.
La CNIL recommande un système « double aveugle » où personne ne peut croiser identité et sites visités. Ce système n'existe pas encore à grande échelle. Et en attendant, chaque mécanisme de vérification crée une trace.
En Malaisie, c'est plus direct : les plateformes devront vérifier l'âge via le passeport ou la carte d'identité nationale. On constitue donc, au nom de la protection de l'enfance, des bases de données centralisées.

Sous un gouvernement démocratique et stable, c'est déjà discutable. Mais l'Histoire a cette fâcheuse tendance à ne pas rester stable.
Il suffit de regarder ce qui se passe aux États-Unis, où l'administration a investi massivement dans les outils de surveillance. Et à ceux qui prétendent que "nous ne sommes pas les Etats-Unis !", nous ne pourrions que rappeler les contrats signés avec Palantir par la DGSI ou par l'OTAN.
Palantir was honored to host Belgium’s Minister of Defence, Theo Francken, and Chief of Defence, Frederik Vansina, as part of the the Belgium Defence delegation’s visit to the U.S.
— Palantir (@PalantirTech) October 6, 2025
“Palantir is at the frontline of Europe’s defence and an important partner for all the members of… pic.twitter.com/U7qa9zToTS
Dans tous les cas, une infrastructure de vérification d'identité, même bien conçue, crée un précédent. Et les précédents ont cette particularité de survivre aux intentions de ceux qui les créent. Vu le contexte, et les échéances électorales à venir, on pourrait s'abstenir.
Responsabiliser les plateformes, pas les familles
Le diagnostic est partagé par toutes les sources analysées : oui, les réseaux sociaux posent des problèmes pour certains adolescents. Mais l'interdiction par l'âge rate sa cible. Comme l'explique Olivier Ertzscheid, « les plateformes sont parfaitement en capacité de limiter voire de réduire à néant ces nuisances » — mais « elles ne le font pas parce que ce n'est pas bon pour leur modèle d'affaires ».
La vraie question n'est donc pas « à partir de quel âge ? » mais « qui doit changer son comportement ? ».
danah boyd et María P. Angel enfoncent le clou : exiger des plateformes qu'elles « conçoivent leurs systèmes pour prévenir des résultats sociaux qu'elles ne peuvent pas contrôler » revient à leur demander l'impossible — tout en les dispensant de ce qu'elles pourraient réellement faire. C'est l'équivalent, écrivent-elles, « d'exiger des constructeurs automobiles qu'ils garantissent que les conducteurs ne seront jamais distraits et que tous les accidents seront évités, plutôt que de leur demander d'installer des ceintures de sécurité ».
Imposer le statut d'éditeur
C'est la piste défendue par Olivier Ertzscheid : reconnaître que les réseaux sociaux ont un « rôle actif » dans la circulation des contenus. Aujourd'hui, ils bénéficient du statut d'hébergeur — ils ne sont pas responsables de ce qui circule. En les requalifiant comme éditeurs, on les rend juridiquement responsables des contenus qu'ils amplifient algorithmiquement. Ce n'est plus l'adolescent qui a cliqué qu'on punit, c'est l'entreprise qui a mis le contenu en avant.
Classifier les plateformes selon leur nocivité
Au Royaume-Uni, les Libéraux-Démocrates proposent de classer les réseaux sociaux comme on classe les films — selon leur niveau de nocivité. L'idée : créer une pression économique pour que les plateformes « réécrivent leur code » afin de reconquérir le marché adolescent. Plutôt qu'interdire l'accès, on conditionne l'accès à des standards de conception.
« Si votre plateforme diffuse des contenus nocifs ou s'appuie sur des algorithmes addictifs et nuisibles, vous ne devriez être autorisé nulle part près de nos enfants. » — Ed Davey, Leader des Libéraux-Démocrates britanniques, BBC News
Investir dans l'éducation plutôt que dans la vérification
Anne Cordier, professeure en sciences de l'information et co-autrice de Faut-il interdire les réseaux sociaux aux jeunes ?, pointe le paradoxe : « Les jeunes deviennent une population à contrôler plutôt qu'à éduquer. » Jacqueline Galant reconnaît elle-même que « l'éducation aux médias est une priorité ». Mais les budgets suivent-ils ? L'interdiction coûte moins cher politiquement qu'un plan massif de formation des enseignants et d'accompagnement des familles.
Exiger la transparence sur les données internes
Meta et TikTok mesurent en permanence l'impact de leurs choix de conception. Ces données existent, elles sont internes. Les rendre publiques — ou au moins accessibles aux régulateurs — permettrait de sortir du débat « études contre études ». C'est ce que demandent 42 organisations britanniques, dont le NSPCC (l'équivalent de Child Focus, en Belgique)
L'interdiction des réseaux sociaux aux mineurs est une réponse politique à un problème systémique. Elle donne l'illusion de l'action sans toucher aux mécanismes qui rendent ces plateformes toxiques. Elle transfère la responsabilité des entreprises vers les familles. Et elle crée, au passage, des infrastructures de surveillance dont on préfère ne pas imaginer les usages futurs.
Comme l'écrit danah boyd : « Dans l'ensemble, les jeunes vont bien. Mais ils veulent être compris. » Les comprendre supposerait d'écouter ce qu'ils ont à dire sur leurs usages, plutôt que de légiférer au-dessus de leurs têtes. Les protéger supposerait de s'attaquer aux algorithmes qui captent leur attention, pas de leur interdire l'accès à des espaces où ils cherchent — comme toutes les générations avant eux — à se retrouver entre pairs.
Les adolescents ne sont pas le problème. Le modèle d'affaires des plateformes l'est.
Tant qu'on refusera de le nommer — et de le réguler — on continuera à légiférer dans le vide.


