L'IA qui se programme elle-même : la course vers l'obsolescence humaine

OpenAI, Anthropic et Google automatisent déjà leur recherche IA. 90% du code d'Anthropic est écrit par Claude. L'objectif : des machines qui s'améliorent sans intervention humaine d'ici 2032.

8 avr. 2026
L'IA qui se programme elle-même : la course vers l'obsolescence humaine
Silicon Valley Is in a Frenzy Over Bots That Build Themselves
How close are we really to self-improving AI?

Cette enquête révèle un basculement majeur dans la Silicon Valley : les géants de l'IA automatisent désormais leur propre recherche. Anthropic annonce que 90% de son code est écrit par Claude, tandis qu'OpenAI promet un 'chercheur IA automatisé' pour 2028. Google DeepMind a déjà déployé AlphaEvolve, qui optimise ses centres de données et réduit de 1% le temps d'entraînement de Gemini. Ce qui frappe, c'est l'accélération : il y a quelques années, l'IA peinait à additionner ; aujourd'hui elle accomplit des tâches qui prendraient des heures à un humain.

L'enjeu dépasse la simple productivité : 20 des 25 chercheurs leaders interrogés identifient cette automatisation comme l'un des risques 'les plus sévères et urgents' de l'industrie. Le paradoxe est saisissant : une technologie vendue comme libératrice pourrait rendre ses créateurs obsolètes, créant une boucle d'amélioration récursive échappant au contrôle humain.

Points de vigilance

Risque de hype marketing déguisée en révolution technique. L'automatisation partielle peut masquer une dépendance humaine persistante. Les prédictions temporelles (2028, 2032) restent hautement spéculatives.

Et maintenant ?

  • 🤘 Créer un observatoire indépendant de l'automatisation de la recherche IA

Coalition chercheurs académiques + ONG tech + régulateurs pour auditer publiquement le degré réel d'automatisation des géants IA. Publier des métriques standardisées (% code automatisé, supervision humaine requise, capacités réelles vs annoncées) pour casser l'opacité marketing et informer les décisions politiques.

→ On saura que ça marche quand les entreprises IA publieront des rapports trimestriels standardisés sur leur niveau d'automatisation, avec audit externe obligatoire.

  • 💪 Documenter et partager les limites observées des outils IA en production

Développeurs et chercheurs qui utilisent Claude, GPT ou autres : tenir un journal public des échecs, supervision requise, et tâches où l'humain reste indispensable. Créer une base de données collaborative des 'angles morts' de l'IA pour contrer le narratif de l'automatisation totale.

→ On saura que ça marche quand les recruteurs tech cesseront de craindre le remplacement par l'IA grâce à une cartographie précise des compétences humaines irremplaçables.

  • ✊ Organiser un moratoire coordonné des talents IA sur l'automatisation récursive

Chercheurs, ingénieurs et data scientists refusent collectivement de travailler sur des projets d'IA récursive sans garde-fous démocratiques. S'inspirer du mouvement des scientifiques contre les armes autonomes : retirer le consentement des experts pour fragiliser le pilier 'ressources humaines' des géants.

→ On saura que ça marche quand les entreprises IA devront ralentir leurs roadmaps d'automatisation faute de talents acceptant de travailler sans supervision éthique.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆