61% des entreprises US surveillent leurs salariés par IA

Un tiers des employeurs britanniques et 61% des américains utilisent déjà des logiciels de surveillance dopés à l'IA pour mesurer la productivité. L'automatisation ne remplace pas les emplois : elle les rend invivables.

16 mai 2026
61% des entreprises US surveillent leurs salariés par IA
AI Is Giving Your Boss Tools to Be More Monstrous Than Ever Before
Workplaces are becoming havens of AI surveillance, an issue which is slowly destroying workplace autonomy, trust, and dignity.

L'IA ne détruit pas l'emploi, elle le transforme en enfer numérique. Un tiers des employeurs britanniques utilisent déjà des logiciels de surveillance intégrés à l'IA, et 61% des entreprises américaines analysent la productivité de leurs salariés par algorithmes. Amazon scanne les pauses toilettes de ses entrepôts depuis les années 2010, mais l'IA généralise cette logique à tous les secteurs. Les employés de fast-food, les livreurs, les cols blancs subissent une surveillance constante qui fragmente leur travail et érode leur autonomie.

"Beaucoup d'emplois subsisteront dans le futur, mais ils seront plus sous pression, plus fragmentés et moins humains."

— Nazrul Islam, Professeur, Royal Docks School of Business and Law

Comme l'observe le professeur Nazrul Islam, "beaucoup d'emplois subsisteront, mais ils seront plus sous pression, plus fragmentés et moins humains". Le choix se fait maintenant, entreprise par entreprise, sans débat démocratique. L'enjeu n'est plus l'apocalypse robotique future, mais la dégradation présente des conditions de travail par la surveillance algorithmique.

Points de vigilance

Risque de normalisation progressive de la surveillance au travail. L'absence de régulation permet aux entreprises d'expérimenter sans limites sur leurs salariés.

Et maintenant ?

  • 🤘 Créer des syndicats numériques pour négocier les conditions de surveillance

Fédérer syndicats traditionnels et collectifs tech pour négocier des accords-cadres sur la surveillance au travail. Définir des seuils acceptables, des zones de non-surveillance, des droits de déconnexion algorithmique. Utiliser le rapport de force collectif pour imposer la transparence des métriques.

→ On saura que ça marche quand les entreprises publieront leurs algorithmes de surveillance et négocieront des accords collectifs sur les métriques acceptables.

  • 💪 Documenter et partager les pratiques de surveillance de son employeur

Créer une base de données collaborative des pratiques de surveillance par entreprise. Permettre aux candidats de connaître les conditions réelles avant signature, créer une pression réputationnelle sur les employeurs les plus intrusifs. Transformer l'information en levier de négociation.

→ On saura que ça marche quand les entreprises mentionneront leurs pratiques de surveillance dans leurs offres d'emploi pour attirer les talents.

  • ✊ Organiser des grèves du zèle algorithmique coordonnées

Respecter scrupuleusement toutes les métriques imposées par l'IA de surveillance, mais uniquement celles-là. Révéler l'absurdité du système en appliquant ses règles à la lettre, paralyser la productivité réelle tout en satisfiant les algorithmes. Démontrer que la surveillance détruit l'efficacité.

→ On saura que ça marche quand les entreprises réduiront volontairement leurs métriques de surveillance pour retrouver de la productivité réelle.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆