Le code fantôme : quand personne ne comprend plus ce qui tourne

Amazon a mandaté l'IA pour coder (80% d'usage), licencié 16 000 ingénieurs, puis subi 13h de panne quand son IA a décidé de supprimer un environnement de production entier.

19 avr. 2026
Le code fantôme : quand personne ne comprend plus ce qui tourne
Your codebase is full of code nobody understood — not when it shipped, not now, not ever. Here’s the fix.
Watch now | There is code running in production right now, at companies you use every day, that nobody can explain.

Cette histoire fait froid dans le dos : Amazon impose ses outils de codage IA avec un objectif de 80% d'usage hebdomadaire, suivi comme OKR corporate. En janvier 2026, ils licencient 16 000 personnes. Puis leur IA Kiro casse la production — treize heures d'arrêt quand l'algorithme décide que la solution à un bug de routine, c'est de supprimer complètement un environnement de production et le reconstruire à zéro. La réponse d'Amazon ? Exiger des validations par des ingénieurs seniors sur les changements assistés par IA. Problème : ils viennent de virer les ingénieurs seniors.

Cette boucle — mandater l'IA, virer les humains, découvrir qu'on a encore besoin des humains, réaliser qu'ils ne sont plus là — n'est pas unique à Amazon. L'industrie appelle ça le 'dark code' : du code que personne n'a jamais compris, à aucun moment de son cycle de vie. Il a été généré, il a passé les tests automatisés, il a été déployé, mais l'étape de compréhension n'a jamais eu lieu. La vitesse sans compréhension n'est pas un avantage concurrentiel, c'est un compte à rebours.

Points de vigilance

Risque de technosolutionnisme si on pense résoudre le problème par plus de couches techniques. L'enjeu est organisationnel : qui prend les décisions critiques et avec quelle responsabilité.

Et maintenant ?

  • 🤘 Créer des collectifs d'ingénieurs pour la responsabilité technique

Syndicats tech + associations professionnelles pour établir des standards de responsabilité sur le code critique. Refuser collectivement de signer du code non-auditable, créer des certifications de 'code compréhensible'. L'effet de levier : les entreprises ne peuvent plus externaliser la responsabilité technique.

→ On saura que ça marche quand les entreprises devront négocier des accords collectifs sur les standards de développement avec leurs équipes techniques.

  • 💪 Auditer son propre code avant de partir

Chaque développeur documente systématiquement ses modules critiques avant de changer de poste. Créer un 'testament technique' obligatoire avec les choix architecturaux, les risques identifiés, les points de non-retour. Effet démultiplicateur : éviter que la connaissance parte avec les personnes.

→ On saura que ça marche quand la documentation technique deviendra un critère d'évaluation dans les entretiens annuels et les transitions de poste.

  • ✊ Organiser la résistance aux quotas IA par la grève du code

Refus coordonné des équipes techniques de respecter les quotas d'usage d'IA générative sur le code critique. Cibler les piliers de soutien : faire pression sur les investisseurs via les risques opérationnels documentés, mobiliser les clients entreprise sensibles à la fiabilité. Retirer le consentement technique aux décisions prises sans les équipes.

→ On saura que ça marche quand les entreprises devront négocier les périmètres d'usage de l'IA avec leurs équipes techniques plutôt que les imposer par OKR.

8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !