75 ONG contre Meta : la coalition improbable qui refuse la société de surveillance

Une coalition de 75 organisations civiques américaines exige l'annulation de la reconnaissance faciale sur les lunettes Ray-Ban de Meta. Un front commun inédit qui révèle les failles du 'move fast and break things'.

18 avr. 2026
75 ONG contre Meta : la coalition improbable qui refuse la société de surveillance
Huge Group of Experts Warns Meta That Its Pervert Glasses Will Enable Terrible Crimes
Meta’s plans to add facial recognition tech to its smart glasses, as part of a new feature dubbed “Name Tag,” has outraged rights groups.

Cette coalition fait bouger les lignes : 75 organisations américaines — ACLU, Electronic Frontier Foundation, GLAAD, associations de femmes, groupes LGBTQ+ et syndicats — s'unissent pour bloquer la reconnaissance faciale sur les lunettes Ray-Ban de Meta. Ce qui frappe, c'est la diversité des acteurs mobilisés autour d'un même refus. Meta comptait sur leur dispersion pour passer en force, pensant que 'les groupes de la société civile auraient leurs ressources focalisées sur d'autres préoccupations' selon un document interne cité par le New York Times.

"Nous lancerons pendant un environnement politique dynamique où de nombreux groupes de la société civile dont nous nous attendrions à ce qu'ils nous attaquent auraient leurs ressources focalisées sur d'autres préoccupations [traduit de l'anglais]"

— Document interne Meta, Stratégie de déploiement

Erreur de calcul : la menace technologique rassemble au-delà des clivages habituels. Le timing révèle une stratégie cynique : profiter du chaos politique pour déployer une technologie de surveillance de masse. Mais cette fois, l'opposition s'organise et nomme précisément les risques : stalkers, escrocs, agents fédéraux qui pourront identifier n'importe qui dans l'espace public sans consentement possible. L'enjeu dépasse Meta : c'est le modèle même du 'move fast and break things' qui vacille face à une société civile qui apprend à faire coalition.

Points de vigilance

Risque de focalisation excessive sur Meta alors que d'autres acteurs développent des technologies similaires. La coalition pourrait s'essouffler après cette campagne sans créer de mécanisme pérenne de veille technologique.

Et maintenant ?

  • 🤘 Créer des coalitions tech-vigilantes permanentes sur le modèle européen

S'inspirer de cette mobilisation pour institutionnaliser la veille technologique : alliance permanente entre associations civiques, syndicats tech et groupes de défense des droits spécifiques (femmes, LGBTQ+, migrants). Objectif : anticiper les déploiements de surveillance plutôt que de réagir.

→ On saura que ça marche quand les entreprises tech consulteront ces coalitions AVANT le développement plutôt qu'après les scandales.

  • ✊ Exploiter les fuites de documents internes pour documenter les stratégies cyniques

Le document Meta révélant leur calcul sur la dispersion des ONG prouve l'intentionnalité. Organiser un réseau de lanceurs d'alerte tech + journalistes d'investigation pour documenter systématiquement ces stratégies de contournement social.

→ On saura que ça marche quand ces révélations deviendront un coût réputationnel systématique pour les entreprises qui tentent le passage en force.

  • 💪 Transformer chaque refus de consentement en données publiques

Créer des outils permettant à chacun de documenter et partager les tentatives d'identification non consentie (lunettes connectées, reconnaissance faciale sauvage). Transformer l'absence de consentement individuel en pression collective visible.

→ On saura que ça marche quand porter des lunettes connectées dans l'espace public deviendra socialement stigmatisant à cause de la documentation collective des abus.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !