Quand les milliardaires de l'IA déclarent la guerre aux régulateurs démocrates

Alex Bores, candidat démocrate pro-régulation IA, subit une campagne de 1M$ orchestrée par les fondateurs d'OpenAI et a16z pour l'empêcher d'accéder au Congrès.

18 févr. 2026
Quand les milliardaires de l'IA déclarent la guerre aux régulateurs démocrates
Alex Bores wants to fix Dems’ AI problem
Transformer Weekly: Anthropic’s political donations, energy bills policy, and an xAI exodus

Cette bataille électorale révèle la mécanique d'influence de la Silicon Valley sur la démocratie américaine. Leading the Future, le super PAC financé par Greg Brockman (OpenAI) et les fondateurs d'Andreessen Horowitz, déverse plus d'un million de dollars pour faire chuter Alex Bores, seul démocrate à avoir fait adopter une loi de régulation IA (RAISE Act) malgré l'opposition des géants tech.

"Je pense que cette approche 'laissez faire' qui vient du gouvernement fédéral en ce moment ne nous servira pas bien, et nous devons être très intentionnels sur les futurs potentiels et comment nous répondrions dans ces futurs"

— Alex Bores, Membre de l'Assemblée de New York, auteur du RAISE Act

L'asymétrie des moyens est saisissante : d'un côté, les milliardaires de l'IA mobilisent des fonds illimités pour façonner le paysage politique ; de l'autre, un élu local soutenu par quelques chercheurs en sécurité IA. Ce qui se joue dépasse une simple élection : c'est la capacité des citoyens à imposer des règles aux systèmes qui les gouvernent. Si Bores perd en juin, ce sera un signal clair que l'argent tech peut neutraliser toute velléité de régulation démocratique.

Points de vigilance

Risque de polarisation excessive du débat IA, confusion entre régulation légitime et techno-phobie, capture réglementaire par les acteurs dominants

Et maintenant ?

  • 🤘 Organiser une coalition transpartisane d'élus locaux pro-régulation IA

Répliquer le modèle Bores dans plusieurs États : identifier les élus locaux (démocrates ET républicains) ayant déjà proposé des régulations IA, les structurer en réseau coordonné pour partager les stratégies juridiques et résister collectivement aux pressions financières des plateformes.

→ On saura que ça marche quand au moins 10 États adopteront simultanément des lois similaires au RAISE Act, rendant impossible la stratégie de lobbying au cas par cas

  • ✊ Cibler les investisseurs institutionnels des super PACs tech pour créer des coûts réputationnels

Identifier les fonds de pension, universités et fondations qui investissent dans les fonds a16z et autres backers de Leading the Future. Organiser des campagnes de transparence montrant comment l'argent des retraites finance l'influence politique anti-démocratique.

→ On saura que ça marche quand les premiers fonds institutionnels annonceront des critères ESG excluant les investissements dans des structures de lobbying politique

  • 💪 Traquer et documenter publiquement les flux financiers tech-politique

Créer une base de données collaborative recensant tous les dons, investissements et contrats entre Big Tech et acteurs politiques (élus, think tanks, consultants). Utiliser les déclarations FEC et les registres de lobbying pour rendre visible l'écosystème d'influence.

→ On saura que ça marche quand les journalistes citeront systématiquement les liens financiers tech dans leurs articles politiques, créant un coût réputationnel automatique


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !