Google bascule vers l'armement : de Maven 2018 aux contrats classifiés

Après avoir renoncé au Project Maven en 2018 face à la révolte de ses employés, Google signe un accord avec le Pentagone pour des usages militaires classifiés de Gemini. 600 employés protestent à nouveau.

4 mai 2026
Google bascule vers l'armement : de Maven 2018 aux contrats classifiés
« Toute finalité gouvernementale légale » : l’accord discret entre Google et le Pentagone enfin révélé
Selon The Information, Google a conclu un accord avec le Pentagone pour permettre l’usage de ses modèles d’IA dans des opérations classifiées. Un partenariat sensible, qui intervient après la rupture entre le gouvernement américain et Anthropic. Après son bras de fer avec Anthropic, le Pentagone se tourne une

Le revirement de Google illustre comment la pression géopolitique transforme les géants tech en contractants militaires. En 2018, la mobilisation massive des employés avait forcé l'abandon du Project Maven. Aujourd'hui, 600 employés signent une nouvelle lettre de protestation, mais Google maintient son accord avec le Pentagone pour des usages « classifiés » de Gemini. La formule contractuelle « toute finalité gouvernementale légale » ouvre un champ d'application quasi-illimité, malgré des garde-fous sur la surveillance de masse et les armes autonomes.

"Nous voulons que l'IA soit au service de l'humanité, et non qu'elle soit utilisée de manière inhumaine ou extrêmement nuisible. Le seul moyen de garantir que Google ne soit pas associé à de tels préjudices est de refuser toute charge de travail classifiée."

— 600 employés Google, Employés Google, dont membres de DeepMind

Cette évolution s'inscrit dans un contexte plus large : sous Trump, la régulation IA s'assouplit tandis que le Pentagone durcit sa sélection de partenaires « fiables ». Anthropic, classé « risque pour la chaîne d'approvisionnement » après son refus, fait face à une bataille juridique. Le message est clair : les entreprises d'IA doivent choisir entre leurs principes éthiques et l'accès au marché militaire américain.

Points de vigilance

Risque de normalisation progressive des usages militaires de l'IA civile. Les garde-fous contractuels restent flous et la classification empêche tout contrôle externe. La pression économique et géopolitique érode systématiquement les principes éthiques initiaux.

Et maintenant ?

  • 🤘 Créer un observatoire indépendant des contrats tech-militaires

Alliance journalistes d'investigation + chercheurs + syndicats tech pour documenter systématiquement les accords classifiés. Publier un baromètre annuel des engagements éthiques vs réalité contractuelle. Cibler les investisseurs ESG sensibles aux contradictions entre communication publique et pratiques réelles.

→ On saura que ça marche quand les entreprises tech devront justifier publiquement leurs contrats militaires lors des assemblées générales d'actionnaires.

  • ✊ Organiser des démissions coordonnées sur les projets militaires

Réseau transnational d'employés tech pour synchroniser les refus de travailler sur des projets militaires. Créer un fonds de soutien juridique et financier pour les démissionnaires. Cibler les équipes-clés (IA, sécurité) dont le départ paralyserait les projets sensibles.

→ On saura que ça marche quand les entreprises devront augmenter massivement les salaires des équipes IA pour compenser le risque de démission collective.

  • 💪 Auditer les investissements ESG exposés aux contrats militaires

Vérifier si ses fonds de pension ou placements ESG incluent des entreprises tech ayant des contrats militaires non-déclarés. Exiger la transparence sur les revenus militaires dans les critères ESG. Créer une pression actionnariale sur les contradictions éthique/business.

→ On saura que ça marche quand les fonds ESG excluront automatiquement les entreprises tech ayant des revenus militaires non-transparents.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆