700 employés irlandais licenciés pour avoir trop bien dressé l'IA de Meta

Meta licencie 700 annotateurs de données chez Covalen en Irlande. Leur mission : entraîner l'IA à modérer les contenus. Résultat : l'IA les remplace.

5 mai 2026
700 employés irlandais licenciés pour avoir trop bien dressé l'IA de Meta
‘It’s Undignified’: Hundreds of Workers Training Meta’s AI Could Be Laid Off
More than 700 people working for a Meta contractor in Ireland are at risk of losing their jobs, documents show.

L'ironie est cruelle : 700 employés de Covalen à Dublin viennent d'apprendre leur licenciement par Meta, après avoir passé des mois à entraîner l'IA qui va les remplacer. Ces annotateurs de données passaient leurs journées à vérifier les contenus générés par les modèles de Meta, créant des prompts élaborés pour tester les garde-fous contre les contenus pédocriminels ou les descriptions de suicide. "On passe sa journée à faire semblant d'être un pédophile", témoigne Nick Bennett, l'un des employés licenciés.

"C'est essentiellement entraîner l'IA à prendre nos emplois. Nous prenons des décisions comme la décision parfaite que l'IA doit émuler"

— Employé Covalen anonyme, Annotateur de données

Le timing révèle la stratégie : Meta vient d'annoncer un quasi-doublement de ses investissements IA tout en supprimant un emploi sur dix. Les 500 annotateurs restants savent qu'ils forment leurs propres remplaçants algorithmiques. Covalen impose une clause de non-concurrence de six mois, empêchant les licenciés de postuler chez d'autres prestataires Meta. Cette asymétrie brutale illustre comment les géants tech externalisent le coût humain de l'IA tout en capturant sa valeur économique.

Points de vigilance

Risque de focalisation sur les symptômes (licenciements) plutôt que sur les causes structurelles (externalisation, captation de valeur). La clause de non-concurrence pourrait être contestée juridiquement mais nécessite une action collective organisée.

Et maintenant ?

  • 🤘 Créer une coalition syndicats tech européens contre les clauses de non-concurrence

Alliance CWU irlandais + syndicats allemands et français pour contester juridiquement les clauses empêchant les travailleurs IA licenciés de retrouver un emploi. Cibler la libre circulation des travailleurs UE pour casser ce mécanisme de chantage.

→ On saura que ça marche quand les clauses de non-concurrence dans l'IA seront déclarées nulles par la Cour de justice européenne

  • 🤘 Organiser un consortium européen d'annotation de données souverain

Regrouper les annotateurs licenciés dans une coopérative européenne offrant des services d'entraînement IA aux institutions publiques et PME. Briser le monopole des géants tech sur cette expertise critique en créant une alternative collective.

→ On saura que ça marche quand au moins trois gouvernements européens utiliseront des services d'annotation coopératifs plutôt que les sous-traitants des GAFAM

  • 💪 Documenter et partager les techniques d'entraînement IA avant licenciement

Les annotateurs encore en poste peuvent créer une base de connaissances open source sur les méthodes d'entraînement et de test des modèles. Cette documentation collective devient un actif partagé qui échappe à la captation privée.

→ On saura que ça marche quand les techniques d'annotation seront standardisées et accessibles aux acteurs publics européens


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆