
La pétition ouverte aux signatures sur le site de la Chambre: https://dekamer.mijnopinie.belgium.be/initiatives/i-1290?ref=da.van.ac
Au niveau européen, l'IA militaire échappe à tout contrôle démocratique
Le règlement européen sur l'intelligence artificielle — l'AI Act — est entré en vigueur en 2024. On en a beaucoup parlé. Ce dont on parle beaucoup moins, c'est de son angle mort le plus massif : la sécurité nationale est explicitement exclue de son champ d'application.(article 2, paragraphe 3).
Des juristes spécialisés ont rappelé que ce n'est pas une exception technique, mais "une véritable règle de délimitation des compétences" : l'Union européenne ne peut pas légiférer dans ce domaine sans révision des traités, même si elle le voulait. Chaque État membre est seul souverain — et seul responsable — de ce qu'il autorise ou interdit à ses forces armées et à ses services de sécurité en matière d'IA.
Ce n'est pas un oubli. C'est un choix politique de l'Europe pour laisser les états décider de manière individuelle.
Et ce choix laisse un vide que chaque État membre est libre de combler — ou d'ignorer.
Avant de déclencher, son opération conjointe avec Israël contre l'Iran, le Département de la Guerre américain avait exigé d'Anthropic — l'éditeur de l'IA Claude — qu'il lève deux restrictions éthiques intégrées à ses contrats : 1) l'interdiction d'utiliser son IA pour la surveillance de masse des citoyens américains sur leur propre territoire, et 2) l'interdiction de l'intégrer dans des systèmes d'armes létaux fonctionnant sans supervision humaine directe.
Anthropic a refusé. Son fondateur Dario Amodei a confirmé publiquement le 26 février qu'il ne pouvait "en bonne conscience accéder à leur demande".
Le Pentagone l'a classée « risque sécuritaire inacceptable » ... et OpenAI a pris sa place. Le message est clair : quand une entreprise dit non, on la remplace. Il ne reste plus que le politique pour poser des limites.
La question n'est donc pas de savoir si l'IA militaire va se déployer en Europe. Elle se déploie déjà. La question est : qui décide des règles ?
Pourquoi la Belgique, pourquoi maintenant ?
La Belgique n'a donc, à ce jour, aucun cadre légal spécifique encadrant l'usage de l'IA à des fins militaires ou par la Police fédérale. Aucun débat parlementaire structuré n'a eu lieu sur le sujet. Aucun mécanisme de contrôle indépendant n'existe.
Ce n'est la faute de personne en particulier. C'est un sujet neuf, techniquement complexe, politiquement sensible. Mais l'absence de cadre n'est pas de la prudence — c'est une exposition. Sans règles, il n'y a pas de garde-fous. Sans débat, il n'y a pas de légitimité démocratique.

Pourtant, L'Echo et Le Soir ont annoncé que Palantir, le géant américain de l'analyse de données, à grand renfort d'intelligence artificielle, avait créé une filiale en Belgique en décembre 2025 — deux mois après une rencontre entre le ministre de la Défense Theo Francken et des représentants de l'entreprise.
Notre Premier ministre Bart De Wever, a quant à lui évoqué des « discussions exploratoires » mais affirme qu'à ce jour aucun contrat n'a été signé, tout en qualifiant les fournisseurs américains de « choix nécessaire » et qu'ils pourraient éventuellement répondre à des appels d'offres pour des marchés publics.

Aux USA, Palantir fournit le système FALCON à l'ICE, l'agence américaine chargée des expulsions. L'entreprise a par ailleurs développé ImmigrationOS, décrit comme un système d'exploitation appliqué aux migrants. Ce ne sont pas des allégations — ce sont des contrats documentés, des déclarations publiques, des systèmes en production
Récemment, Meta a signé un partenariat avec Anduril, l'entreprise spécialisée dans les systèmes d'armes autonomes, pour développer des casques de réalité augmentée à usage militaire — Mark Zuckerberg déclarant que "la sécurité nationale américaine bénéficie énormément de l'implication de l'industrie américaine". Meta a par ailleurs ouvert ses modèles Llama aux agences de défense et à des partenaires industriels comme Lockheed Martin et Palantir.
Scale IA, Microsoft et Google sont co-développeurs de "Thunderforge", le programme phare du Pentagone d'IA pour la planification militaire en temps réel. xAI — l'entreprise d'Elon Musk — a obtenu un contrat de 200 millions de dollars avec le DoD, son modèle Grok étant désormais intégré à la plateforme GenAI.mil du Pentagone, le tout sans les garde-fous qu'Anthropic refusait d'abandonner.
En décembre 2025, cette même plateforme GenAI.mil a été lancée avec Gemini de Google comme premier modèle déployé, mettant des outils d'IA commerciaux à disposition des trois millions d'employés, militaires et contractants du Département de la Guerre.
En Europe, Palantir a déjà un contrat avec l'OTAN ainsi qu'avec la DGSE, en France. En Suisse, malgré des efforts persistants sur plus de dix ans auprès de divers ministères et de l'armée, Palantir a été rejeté à plusieurs reprises pour des risques liés à la souveraineté des données et à la sécurité.
En Allemagne, la Cour constitutionnelle a rendu un arrêt dans lequel elle déclare inconstitutionnelle l’utilisation du logiciel de surveillance de Palantir par la police des Länder de la Hesse et de Hambourg.
Pour en revenir à la Belgique, une charte pour l'utilisation responsable de l'IA dans les services publics a bien été signée le 11 juillet 2025, réunissant près de 40 organismes fédéraux dont la Police et la Défense. Mais ce document, non contraignant, définit lui-même son périmètre comme limité aux actes administratifs et aux interactions avec les usagers.
Les missions opérationnelles, les systèmes d'armes, le renseignement — tout cela reste hors cadre. Et la Charte renvoie elle-même à l'AI Act, qui exclut précisément ce que l'on cherche à encadrer.
Nous sommes donc bien à moment charnière de l'utilisation de l'IA a des fins militaires en Belgique.
Ce que la pétition demande — trois choses concrètes
Quand des nouvelles technologies transforment les capacités de l'État en matière de défense et de maintien de l'ordre, il semble important que nous puissions avoir un débat, en toute transparence, sur l'usage qui en est fait.
Ma démarche n'est ni de gauche ni de droite. J'utilise simplement la voie démocratique prévue pour que tout citoyen puisse demander à ses représentants de se saisir d'un sujet. C'est la base du contrôle parlementaire dans un État de droit.
1. Un état des lieux. Que le gouvernement fournisse un bilan des systèmes d'IA actuellement déployés par la Défense et la Police fédérale, avec leurs garanties contractuelles. On ne peut pas encadrer ce qu'on ne connaît pas.
2. Des règles nationales minimales. Puisque l'AI Act exclut la sécurité nationale, la Belgique doit fixer ses propres standards. Transparence, contrôle humain, audit indépendant — un socle minimal que toute démocratie devrait exiger.
3. Une position parlementaire claire sur deux usages précis : l'IA pour la surveillance de masse et l'IA pour les systèmes d'armes autonomes. Pas un moratoire, pas une interdiction a priori — un débat démocratique suivi d'une prise de position explicite.

La pétition ouverte aux signatures sur le site de la Chambre
Comment fonctionne une pétition fédérale — et pourquoi chaque signature compte
Le droit de pétition est inscrit dans la Constitution belge. Une pétition fédérale qui recueille 25 000 signatures oblige la Chambre à l'examiner — et son auteur peut être auditionné en commission. Ce n'est pas symbolique. C'est un levier institutionnel.
Mais il y a une condition cruciale : les signatures doivent être réparties entre les trois régions du pays.
| Région | Signatures requises | Part du total |
|---|---|---|
| Flandre | 14 500 | 58 % |
| Wallonie | 8 000 | 32 % |
| Bruxelles-Capitale | 2 500 | 10 % |
Ce mécanisme existe pour garantir que la pétition reflète une préoccupation partagée à l'échelle du pays, pas le seul écho d'une communauté linguistique. Les trois seuils doivent être atteints pour que la Chambre soit tenue de se saisir du texte.
Concrètement, cela veut dire que chaque région est un front à part entière. Si la Wallonie atteint son seuil mais pas la Flandre, la pétition n'aboutit pas. Si Bruxelles signe massivement mais que les deux autres régions traînent, même résultat. On a besoin de tout le monde.
Et c'est précisément ce qui rend cette démarche puissante : elle oblige à dépasser les clivages linguistiques pour poser une question qui concerne chaque citoyen belge, quelle que soit sa langue.
Signer, c'est voter pour un débat
Signer cette pétition, ce n'est pas se prononcer pour ou contre l'IA militaire. Ce n'est pas rejoindre un camp. C'est demander que la question soit posée là où elle doit l'être : au Parlement, en commission, en séance publique — pas dans des négociations opaques entre un cabinet ministériel et un fournisseur technologique.
C'est un acte citoyen. Apolitique. Cinq minutes. Et c'est exactement le type de mécanisme démocratique qui existe pour ça.
La période de collecte est ouverte. Signez, partagez, faites circuler — en Wallonie, à Bruxelles, en Flandre. Chaque signature dans chaque région rapproche ce débat de l'hémicycle.
Partagez
Cette pétition n'a pas de budget publicitaire. Elle n'a pas de parti derrière elle. Son seul moteur, c'est la circulation. Si le sujet vous semble important, partagez-le — sur vos réseaux, dans vos groupes, à vos collègues, à vos proches. Envoyez le lien. Nommez la question.
Et si vous êtes journaliste, chercheur, juriste, parlementaire ou que vous travaillez dans le secteur de la défense ou de la technologie : ce sujet mérite une couverture publique sérieuse. Contactez-moi directement si vous souhaitez en discuter, je vous partage volontiers mes sources et mes réflexions — mon agenda est ouvert.
Le lien direct vers la pétition : dekamer.mijnopinie.belgium.be/initiatives/i-1290

La pétition ouverte aux signatures sur le site de la Chambre
Je m'appelle Damien Van Achter, Je suis journaliste, prof et consultant en innovation et en pédagogie entrepreneuriale. Depuis 2005, j'essaye de comprendre et de raconter comment fonctionnent nos systèmes informationnels.
Au cours du temps, j'ai développé des outils d'analyse qui repèrent les pièges tendus par les entreprises de la tech et certains états, et j'explore des pistes pour tenter de s'en libérer, positivement et avec discernement.
J'explique ici ma démarche, inspirée récemment des travaux de l'historien Timothy Snyder, comment ces analyses sont produites techniquement et humainement, ainsi que leurs limites.
On t'a transféré ce mail ? Tu peux t'abonner en 1 clic pour recevoir les suivants.
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Jette un oeil à mon agenda. 📆
@davanac


