Meta transforme ses employés en cobayes pour dresser ses agents IA

Meta lance un keylogger généralisé sur les postes de ses employés pour entraîner ses IA à reproduire les gestes humains. L'Europe pourrait bloquer cette surveillance totale.

23 avr. 2026
Meta transforme ses employés en cobayes pour dresser ses agents IA
Meta veut regarder tout ce que font ses employés pour entraîner ses IA - Next

Meta vient de franchir une ligne rouge : l'entreprise déploie un outil baptisé Model Capability Initiative qui enregistre chaque mouvement de souris, chaque frappe clavier et réalise des captures d'écran sur les ordinateurs de ses employés. L'objectif affiché ? Entraîner ses agents IA à reproduire parfaitement les interactions humaines avec les machines. Andrew Bosworth, directeur technique de Meta, dessine une vision où « nos agents réalisent l'essentiel du travail » tandis que les humains se contentent de les « diriger et évaluer ».

"La vision que nous construisons est celle d'un environnement où nos agents réalisent l'essentiel du travail, et où notre rôle consiste à les diriger, les évaluer et les aider à s'améliorer"

— Andrew Bosworth, Directeur technique, Meta

Cette surveillance totale révèle une asymétrie de pouvoir frappante : les employés deviennent des données d'entraînement pour les systèmes qui pourraient les remplacer. L'Europe dispose pourtant d'armes juridiques : le RGPD, l'interdiction italienne de surveiller la productivité électroniquement, et les règles françaises qui exigent consultation des comités d'entreprise. La CNIL a explicitement banni les keyloggers comme outils de surveillance permanente. Ce cas illustre parfaitement comment les géants tech transforment leurs propres employés en ressources extractibles pour alimenter leurs ambitions d'automatisation.

Points de vigilance

Risque de normalisation de cette surveillance si aucune résistance européenne ne se matérialise. Meta pourrait présenter cela comme 'innovation nécessaire' pour rester compétitif face à l'IA chinoise.

Et maintenant ?

  • 🤘 Organiser une résistance syndicale coordonnée contre la surveillance patronale IA

Alliance syndicats tech européens + CNIL + comités d'entreprise pour créer un précédent juridique bloquant. Utiliser le cas Meta comme test case pour établir que la surveillance d'entraînement IA = surveillance illégale de productivité. Effet de levier : jurisprudence applicable à toute la tech.

→ On saura que ça marche quand les autres géants tech abandonneront leurs projets similaires par crainte du précédent juridique européen.

  • 💪 Documenter et publier les pratiques de surveillance interne des employeurs tech

Créer une base de données collaborative (type Glassdoor) où les employés tech documentent anonymement les outils de surveillance déployés par leurs entreprises. Transparence qui permet aux candidats d'éviter les entreprises les plus intrusives et crée une pression concurrentielle sur le recrutement.

→ On saura que ça marche quand les entreprises tech commenceront à mentionner 'pas de keylogger' comme avantage dans leurs offres d'emploi.

  • ✊ Transformer les comités d'entreprise en garde-fous technologiques obligatoires

Lobbying pour renforcer les prérogatives des comités d'entreprise sur les déploiements d'outils de surveillance. Droit de veto suspensif, audit indépendant obligatoire, consultation préalable pour tout outil collectant des données comportementales. Modèle : cogestion allemande appliquée à la tech.

→ On saura que ça marche quand les entreprises tech devront publier leurs 'rapports de surveillance' validés par les représentants du personnel.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆