FLTR #10: Les lignes rouges de l'IA militaire sont négociables. Qui les inscrira dans la loi ?

En exigeant d'Anthropic qu'il lève ses garde-fous éthiques, le Pentagone a involontairement documenté un consensus industriel sur les lignes rouges de l'IA militaire. Reste une question que chaque pays européen doit désormais trancher, individuellement. Et le plus tôt sera le mieux.

1 mars 2026
FLTR #10: Les lignes rouges de l'IA militaire sont négociables. Qui les inscrira dans la loi ?

Avant de déclencher, samedi, son opération conjointe avec Israël contre l'Iran, le Département de la Guerre américain avait exigé d'Anthropic — l'éditeur de l'IA Claude — qu'il lève deux restrictions éthiques intégrées à ses contrats : l'interdiction d'utiliser son IA pour la surveillance de masse des citoyens américains sur leur propre territoire, et l'interdiction de l'intégrer dans des systèmes d'armes létaux fonctionnant sans supervision humaine directe.

Anthropic a refusé. Son fondateur Dario Amodei a confirmé publiquement le 26 février qu'il ne pouvait "en bonne conscience accéder à leur demande".

Statement from Dario Amodei on our discussions with the Department of War
A statement from our CEO on national security uses of AI

L'administration Trump a alors réagi en ordonnant à toutes les agences fédérales de cesser d'utiliser Anthropic et en qualifiant l'entreprise de "risque pour la chaîne d'approvisionnement nationale".

Le Département de la Guerre s'est ensuite tourné vers OpenAI. Sam Altman a annoncé un accord permettant le déploiement des modèles OpenAI dans les systèmes militaires classifiés, en précisant que l'accord intègre les mêmes principes.

C'est là que l'affaire devient intéressante. Non pas dans le bras de fer, mais dans ce qu'il révèle : les deux entreprises les plus puissantes du secteur ont simultanément reconnu, l'une sous pression et l'autre contractuellement, que surveiller en masse ses propres citoyens et déléguer à une machine la décision de tuer sans supervision humaine constituent des lignes rouges.

Ces garde-fous ne relèvent plus d'une posture éthique particulière. Altman lui-même a déclaré que ces lignes sont "des principes que nous partageons avec Anthropic et que d'autres entreprises approuvent indépendamment". Ils font consensus industriel au sommet.

Sauf que ce consensus est fragile, récent, et entièrement volontaire. Il n'existait pas il y a deux ans.

Quand les lignes rouges deviennent négociables

En janvier 2024, OpenAI a discrètement supprimé de ses conditions d'utilisation l'interdiction des usages militaires qui y figurait jusqu'alors. Google a revu ses principes IA le 4 février 2025, supprimant purement et simplement la section "AI applications we will not pursue" qui interdisait explicitement les usages dans des armes et des outils de surveillance — remplacée par un engagement à "soutenir la sécurité nationale" dans un contexte de "compétition mondiale pour le leadership en IA".

Meta a signé un partenariat avec Anduril, l'entreprise spécialisée dans les systèmes d'armes autonomes, pour développer des casques de réalité augmentée à usage militaire — Mark Zuckerberg déclarant que "la sécurité nationale américaine bénéficie énormément de l'implication de l'industrie américaine". Meta a par ailleurs ouvert ses modèles Llama aux agences de défense et à des partenaires industriels comme Lockheed Martin et Palantir.

Scale IA, Microsoft et Google sont co-développeurs de "Thunderforge", le programme phare du Pentagone d'IA pour la planification militaire en temps réel. xAI — l'entreprise d'Elon Musk — a obtenu un contrat de 200 millions de dollars avec le DoD, son modèle Grok étant désormais intégré à la plateforme GenAI.mil du Pentagone, le tout sans les garde-fous qu'Anthropic refusait d'abandonner.

En décembre 2025, cette même plateforme GenAI.mil a été lancée avec Gemini de Google comme premier modèle déployé, mettant des outils d'IA commerciaux à disposition des trois millions d'employés, militaires et contractants du Département de la Guerre.

En deux ans, la quasi-totalité des grands acteurs du numérique mondial sont devenus, à des degrés divers, des prestataires de défense américains. Et l'affaire Anthropic révèle l'essentiel : dans ce mouvement, les lignes rouges ne sont plus des principes gravés dans du marbre. Elles sont des variables de négociation commerciale, révisables selon le rapport de force du moment — jusqu'à ce que la pression rendue publique force un consensus.

Cette logique ne concerne pas que les États-Unis. Les mêmes entreprises — Google, Meta, Microsoft, Amazon, OpenAI — opèrent des infrastructures en Europe, fournissent des services aux armées et aux polices européennes, et déploient leurs modèles dans des contextes opérationnels que nos parlements n'ont pas examinés. Les conditions qu'elles négocient avec Washington fixent de facto des précédents pour l'ensemble de leurs déploiements mondiaux.

Comme le souligne Olivier Tesquet, qui travaille depuis plus de 15 ans sur cette matière, "'on tue désormais en se basant sur des inférences probabilistes, qui prédisent des comportements. On prend la vie de quelqu'un qui ressemble statistiquement à une menace, pas quelqu'un dont on a établi la culpabilité. Les dommages collatéraux ? Les civils tués ? Des variables d'ajustement.

Mais avec l'IA, on franchit un seuil supplémentaire : celui de l'intelligibilité. On ne peut plus retracer le chemin logique qui mène du signal à la décision. Conséquence : tout principe de responsabilité – y compris pénale – disparaît. Et c'est peut-être ce qui attire tant le pouvoir américain."

Mais cette chronologie révèle aussi autre chose : ces lignes rouges ont existé. Quelque chose les avait produites — pression de chercheurs internes, compétition réputationnelle entre entreprises, anticipation réglementaire européenne, recrutement de talents qui exigeaient des principes. Ces forces n'ont pas disparu.

L'épisode Anthropic montre qu'elles sont encore capables de tenir — au moins chez certains acteurs, au moins pour l'instant. La question n'est pas seulement "qui a reculé" mais "qu'est-ce qui fait que certains tiennent encore, et comment renforcer ça".

Un vide que chaque pays européen doit combler seul

Ce consensus industriel existe donc — imparfaitement, sous pression, mais documenté. Il n'existe pas en droit européen, ni dans aucun cadre contraignant.

Le Règlement européen sur l'intelligence artificielle exclut explicitement les usages à fins de sécurité nationale de son champ d'application (article 2, paragraphe 3).

Mais l'exclusion va plus loin que la simple absence de règles : le Considérant 24 du même règlement précise que la sécurité nationale "reste la responsabilité exclusive des États membres" au sens de l'article 4, paragraphe 2 du Traité sur l'Union européenne. Des juristes spécialisés ont rappelé que ce n'est pas une exception technique, mais "une véritable règle de délimitation des compétences" : l'Union européenne ne peut pas légiférer dans ce domaine sans révision des traités, même si elle le voulait. Chaque État membre est seul souverain — et seul responsable — de ce qu'il autorise ou interdit à ses forces armées et à ses services de sécurité en matière d'IA.

Il n'y a pas de filet de sécurité européen. Par construction.

En Belgique, une Charte pour l'utilisation responsable de l'IA dans les services publics a bien été signée le 11 juillet 2025, réunissant près de 40 organismes fédéraux dont la Police et la Défense.

Mais ce document, non contraignant, définit lui-même son périmètre comme limité aux actes administratifs et aux interactions avec les usagers. Les missions opérationnelles, les systèmes d'armes, le renseignement — tout cela reste hors cadre. Et la Charte renvoie elle-même à l'AI Act, qui exclut précisément ce que l'on cherche à encadrer.

La question posée est donc plus large que le seul cas belge. Elle s'adresse à chaque parlement européen : dans votre pays, quels systèmes d'IA vos forces armées et vos services de sécurité utilisent-ils ? Dans quelles conditions ? Selon quelles lignes rouges contractuelles ? Et si ces lignes rouges n'existent pas encore, qui doit les définir — les entreprises sous pression commerciale, ou vos représentants élus ?

🇧🇪 Interpellation parlementaire

En tant que citoyens, nous disposons d'un outil pour interpeller nos parlementaires, via un système de pétition à introduire auprès de la Chambre des représentants.

Légalement, une pétition doit d'abord être déclarée recevable par les services de la Chambre, selon certaines conditions. Si elle l'est, elle sera ensuite publiée sur la plateforme officielle et ouverte à la signature. Pour qu'elle soit soumise à une audition publique en commission, il faut atteindre 25 000 signatures, dont au minimum 14 500 de personnes domiciliées en Région flamande, 8 000 en Région wallonne et 2 500 à Bruxelles. Les signataires doivent être domiciliés en Belgique et âgés d'au moins 16 ans. Ce seuil atteint, l'audition est de droit — elle ne peut pas être refusée.

La pétition que j'ai donc introduite demande une seule chose : que la Chambre adopte une résolution exerçant son contrôle constitutionnel sur ces usages — en chargeant le gouvernement de communiquer un état des lieux des systèmes IA actuellement déployés par la Défense et la Police fédérale et de leurs garanties contractuelles, en initiant des règles nationales minimales pour combler le vide laissé par l'AI Act, et en prenant formellement position sur la compatibilité de la surveillance de masse des citoyens belges et des armes sans supervision humaine avec nos obligations constitutionnelles et internationales.

↓ Télécharger le PDF

La question que j'ai posée formellement est simple. Les plus grandes entreprises numériques du monde équipent les armées — et les évènements récents ont montré que même les mieux intentionnées d'entre elles opèrent selon des principes que rien n'oblige à maintenir. Le droit européen leur laisse le champ libre dans ce périmètre, par construction. Il revient donc aux parlements nationaux de décider ce qui est admissible sur leur territoire — et de le faire savoir publiquement.

En Belgique, ce débat n'a pas encore eu lieu.

La procédure suit maintenant son cours. Je vous tiendrai informés à chaque étape : décision de recevabilité (qui doit intervenir dans les 20 jours après la soumission) , ouverture éventuelle à la signature, et naturellement si le seuil est atteint et qu'une audition est programmée.

I. Can't. Wait.


🎯 Cette semaine aussi, en bref.

L'illusion du contrôle automatisé se fissure de partout à la fois.

D'un côté, les systèmes censés fonctionner "seuls" montrent leurs coutures : des agents IA qui font tomber AWS, des robotaxis pilotés depuis les Philippines, des algorithmes Meta dont les propres ingénieurs documentaient les dégâts en interne, une modération OpenAI qui détecte une menace de masse et ne sait pas quoi en faire.

Ce que ces cas ont en commun : la promesse d'une technologie autonome et neutre se heurte à des réalités plus compliquées. Derrière plusieurs de ces "automatisations", on retrouve des humains sous-payés, des décisions opaques, et des responsabilités que personne ne revendique.

De l'autre, une géographie des résistances commence à se dessiner : Taïwan qui choisit son propre modèle IA, des communes américaines qui bloquent des data centers, des constructeurs automobiles européens qui refusent la dépendance aux GAFA, des chercheurs qui montrent comment rendre les autocrates lisibles pour mieux les faire échouer.

Ça ne forme pas (encore) une alternative cohérente. Mais cette semaine, plusieurs acteurs, sur plusieurs continents, ont refusé la fatalité technologique — chacun à son échelle.


🎬 En coulisses...

Voir cette publication sur Instagram

Une publication partagée par Damien Van Achter (@davanac)

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedInBlueskyMastodonTwitterFacebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Réponds directement à ce mail ou jette un oeil à mon agenda. 📆

À dimanche prochain !

Damien

N'hésite pas non plus à consulter les autres éditions de cette newsletter pour retrouver tous les liens, les pistes d'actions et les coulisses de mes projets des semaines précédentes.