Altman demande le calme après avoir semé la panique existentielle

Le PDG d'OpenAI appelle à baisser la température sur l'IA après des attaques violentes, mais c'est lui qui a passé dix ans à parler de 'menace existentielle pour l'humanité'.

18 avr. 2026
Altman demande le calme après avoir semé la panique existentielle
Sam Altman’s second thoughts
OpenAI’s CEO is asking the public to lower the temperature on AI. But who turned it up in the first place?

Cette séquence révèle un paradoxe saisissant : Sam Altman demande au public de 'désescalader la rhétorique' sur l'IA après qu'un homme de 20 ans ait lancé un cocktail Molotov sur sa maison. Pourtant, c'est Altman lui-même qui écrivait en 2015 que l'IA superintelligente était 'probablement la plus grande menace à l'existence continue de l'humanité'. Lui et ses pairs (Musk, Amodei) ont passé une décennie à comparer l'IA au Projet Manhattan et à signer des déclarations sur les 'risques d'extinction'.

"Leur histoire est construite sur la peur, la restriction, et l'idée qu'un petit groupe d'élites devrait contrôler l'IA"

— Denise Dresser, Directrice commerciale, OpenAI

Le public les a crus : une majorité d'Américains pense désormais que l'IA avance trop vite et sera néfaste. Mais quand les législateurs tentent de réguler, OpenAI fait du lobbying contre chaque initiative - de la SB 1047 californienne à l'AI Act européen. L'entreprise va jusqu'à envoyer des huissiers chez les militants associatifs. Ce qui se dessine, c'est une stratégie en deux temps : d'abord dramatiser les enjeux pour justifier sa position de leader ('nous seuls pouvons gérer cette technologie dangereuse'), puis demander le calme quand cette rhétorique produit ses effets prévisibles.

Points de vigilance

Risque de légitimer la violence par l'analyse critique. L'appel au calme d'Altman reste légitime même si sa cohérence est questionnable.

Et maintenant ?

  • 🤘 Créer un observatoire citoyen des discours d'entreprises technologiques

Alliance journalistes d'investigation + chercheurs en communication + associations de consommateurs pour documenter systématiquement les contradictions entre discours publics et actions de lobbying des géants tech. Publier un 'baromètre de cohérence' trimestriel avec citations sourcées et votes législatifs.

→ On saura que ça marche quand les PDG tech devront justifier publiquement leurs contradictions lors de chaque audition parlementaire.

  • 🤘 Organiser des coalitions législatives transpartisanes sur la gouvernance IA

Rassembler élus de droite inquiets de la souveraineté nationale et élus de gauche préoccupés par les inégalités autour d'un agenda commun : transparence des algorithmes, responsabilité des entreprises, contrôle démocratique. Exploiter le consensus émergent révélé par les sondages.

→ On saura que ça marche quand des lois sur l'IA passeront avec des majorités dépassant les clivages partisans traditionnels.

  • 💪 Documenter et archiver les déclarations contradictoires des dirigeants tech

Créer des dossiers personnels citoyens compilant citations, dates, contextes des déclarations publiques vs actions de lobbying. Partager ces archives lors des débats publics pour rendre visible l'incohérence. Effet démultiplicateur : chaque citoyen informé peut décrédibiliser la rhétorique corporate.

→ On saura que ça marche quand les journalistes citeront systématiquement les contradictions passées lors des interviews de dirigeants tech.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆