123 millions de tonnes de CO2 : l'IA britannique explose les objectifs climat

Le gouvernement britannique révise ses prévisions d'émissions IA : multiplication par 100, soit 3,4% des émissions nationales d'ici 2035. Les objectifs net zéro 2050 deviennent incompatibles avec l'expansion des data centers.

28 avr. 2026
123 millions de tonnes de CO2 : l'IA britannique explose les objectifs climat
UK quietly increases AI emissions forecast 100-fold
The new figures are incompatible with the government’s green targets, campaigners say.

Le gouvernement britannique vient de réviser discrètement ses prévisions d'émissions carbone liées à l'IA : 123 millions de tonnes de CO2 d'ici 2035, soit 100 fois plus que l'estimation de juillet 2025. Cette révision représente 3,4% des émissions nationales britanniques sur la décennie 2025-2035. La consommation d'eau des data centers IA bondit également, passant de 1 000 milliards de mètres cubes en 2035 à 100-500 milliards par an sur la décennie. Cette explosion des chiffres révèle l'ampleur du déni gouvernemental : comment concilier l'objectif d'être un "AI maker" avec les engagements net zéro 2050 ?

"Avec cette publication discrète, le gouvernement a finalement admis que les data centers IA sont une catastrophe climatique, aspirant des quantités incroyables d'électricité qui nous forceraient à relancer les énergies fossiles au pire moment possible"

— Tim Bierley, Responsable de campagne, Global Justice Now

L'opérateur énergétique national prévoit que la consommation électrique des data centers quadruplera d'ici 2030. Le paradoxe est total : l'IA censée optimiser l'efficacité énergétique pourrait doubler la consommation électrique du pays entier. Cette révision à la hausse de 10 000% expose l'improvisation d'une stratégie numérique déconnectée des contraintes physiques.

Points de vigilance

Risque de greenwashing avec les promesses d'efficacité énergétique de l'IA qui masqueraient l'explosion de la consommation absolue. Dépendance géopolitique accrue aux fournisseurs tech américains pour des infrastructures critiques.

Et maintenant ?

  • 🤘 Créer une coalition parlementaires-ONG pour un moratoire data centers

Alliance entre les comités parlementaires Science & Environnement (Chi Onwurah, Toby Perkins) et les ONG climat (Global Justice Now, Foxglove) pour exiger un moratoire sur les nouveaux data centers IA jusqu'à compatibilité démontrée avec net zéro 2050. Exploiter l'engagement juridique contraignant du gouvernement.

→ On saura que ça marche quand le gouvernement publiera une évaluation carbone obligatoire avant tout nouveau data center IA, avec seuil de rejet automatique.

  • 🤘 Organiser une coalition européenne contre la dépendance tech américaine

Exploiter les craintes géopolitiques post-Trump pour fédérer les gouvernements européens autour d'une stratégie IA souveraine moins énergivore. Utiliser l'argument sécuritaire pour justifier des investissements dans des alternatives européennes plus efficientes.

→ On saura que ça marche quand l'UE lancera un programme d'investissement massif dans des architectures IA alternatives moins énergivores, avec objectifs carbone contraignants.

  • 💪 Auditer l'empreinte carbone réelle de ses outils IA professionnels

Utiliser les nouveaux chiffres britanniques pour calculer l'impact carbone de ses usages IA professionnels et exiger de son employeur une politique de sobriété numérique. Créer une pression bottom-up sur les entreprises utilisatrices d'IA.

→ On saura que ça marche quand les entreprises publieront leur bilan carbone IA dans leurs rapports RSE, avec objectifs de réduction chiffrés.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆