
Ce qui se profile chez Burger King révèle une dérive inquiétante : transformer chaque interaction humaine en données quantifiées. L'IA 'Patty', intégrée dans les casques des employés de 500 restaurants pilotes, analyse les conversations pour calculer des 'scores de gentillesse' basés sur la détection de mots comme 'merci' ou 's'il vous plaît'. Le système surveille en temps réel les interactions au drive, évalue les performances comportementales et notifie les équipes de leurs classements quotidiens.
"Le système est conçu pour rationaliser les opérations du restaurant afin de permettre aux managers et au personnel de se concentrer davantage sur le service client et le leadership d'équipe"
— Restaurant Brands International, Société mère de Burger King
Derrière l'argument de l'optimisation opérationnelle se cache une logique de contrôle total : chaque phrase, chaque intonation devient un point de données exploitable. Ce qui inquiète particulièrement, c'est l'extension programmée à tous les restaurants américains Burger King d'ici fin 2026, normalisant une surveillance algorithmique qui transforme le travail humain en flux de données comportementales. On assiste ici à la fusion de deux dynamiques toxiques : la quantification des émotions et la surveillance permanente du travail.
Points de vigilance
Risque de normalisation progressive de la surveillance algorithmique au travail. L'argument 'aide opérationnelle' masque l'extension du contrôle comportemental.
Et maintenant ?
- 🤘 Organiser des syndicats numériques pour négocier les droits algorithmiques
Alliance syndicats traditionnels + collectifs tech pour établir des chartes de protection face à l'IA au travail. Négocier des clauses contractuelles limitant la surveillance comportementale, le profilage émotionnel et le scoring permanent des employés.
→ On saura que ça marche quand les conventions collectives incluront systématiquement des clauses anti-surveillance algorithmique
- 💪 Documenter et publier les pratiques de surveillance algorithmique patronales
Créer une base de données collaborative des outils de surveillance IA utilisés par les employeurs. Permettre aux salariés de signaler anonymement les systèmes de scoring comportemental, créant une cartographie publique des abus.
→ On saura que ça marche quand les entreprises devront justifier publiquement leurs choix de surveillance IA
- ✊ Cibler les investisseurs institutionnels de Restaurant Brands International
Campagne coordonnée auprès des fonds de pension et investisseurs ESG de Restaurant Brands pour questionner les risques réputationnels et légaux de la surveillance algorithmique massive. Exploiter les critères sociaux de l'investissement responsable.
→ On saura que ça marche quand les rapports ESG des grands groupes incluront des métriques sur la surveillance algorithmique des employés
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !


