Vos anciens employeurs vendent vos emails pour dresser l'IA

Les startups défuntes monétisent leurs archives Slack et emails d'employés pour entraîner l'IA. Un marché de 1 milliard $ émerge autour de ces 'gymnases d'apprentissage' numériques.

6 mai 2026
Vos anciens employeurs vendent vos emails pour dresser l'IA
Your Former Employer Is Selling Your Slacks and Emails to Train AI
The rush to build AI agents for the workplace has spawned an entire industry for repurposing employee data from dead startups to train AI.

Un nouveau marché macabre se développe dans la Silicon Valley : les fondateurs de startups défuntes vendent les archives numériques de leurs employés — messages Slack, emails, code — pour entraîner l'intelligence artificielle. SimpleClosure, qui se présente comme le 'TurboTax de la fermeture d'entreprise', a traité près de 100 transactions l'an dernier, récupérant plus d'un million de dollars pour les fondateurs. L'appétit est tel qu'Anthropic envisage de dépenser 1 milliard de dollars cette année pour ces 'gymnases d'apprentissage par renforcement'.

"Je pense que les questions de vie privée ici sont considérables. La vie privée des employés reste une préoccupation clé, particulièrement parce que les gens sont devenus si dépendants de ces nouveaux outils de messagerie interne comme Slack"

— Marc Roteberg, Fondateur, Center for AI and Digital Policy

Le paradoxe saute aux yeux : on entraîne l'IA au succès commercial avec les données d'entreprises qui ont échoué. Cette marchandisation transforme chaque conversation professionnelle en matière première potentielle, révélant une asymétrie totale. Comme le souligne Marc Roteberg du Center for AI and Digital Policy : 'Ce ne sont pas des données génériques, ce sont des personnes identifiables.' Les employés ignorent ce devenir tandis que les fondateurs monétisent leurs traces numériques.

Points de vigilance

Risque de normalisation de cette pratique si aucune régulation n'émerge. L'anonymisation revendiquée reste contestée par les experts. Les employés n'ont aucun recours une fois l'entreprise fermée.

Et maintenant ?

  • 🤘 Créer un registre européen des données d'employés vendues post-faillite

Alliance syndicats tech + régulateurs pour tracer les ventes de données d'employés et créer un droit d'opposition rétroactif. Transformer l'opacité actuelle en transparence obligatoire avec sanctions financières.

→ On saura que ça marche quand les entreprises devront notifier leurs employés avant toute vente de données, même en cas de faillite

  • 💪 Négocier des clauses de propriété des données dans les contrats de travail

Exiger contractuellement que les communications professionnelles restent propriété de l'employé en cas de fermeture. Créer un précédent juridique exploitable par d'autres salariés.

→ On saura que ça marche quand les cabinets d'avocats proposeront ces clauses en standard dans les contrats tech

  • ✊ Organiser un retrait coordonné des développeurs des projets IA non-éthiques

Coalition développeurs + chercheurs IA pour refuser de travailler sur des modèles entraînés avec des données d'employés non consentantes. Cibler le pilier 'ressources humaines' de cette industrie en retirant le consentement des talents.

→ On saura que ça marche quand les entreprises d'IA devront certifier l'origine éthique de leurs données d'entraînement pour recruter


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆