
Cette histoire fait froid dans le dos : Amazon impose ses outils de codage IA avec un objectif de 80% d'usage hebdomadaire, suivi comme OKR corporate. En janvier 2026, ils licencient 16 000 personnes. Puis leur IA Kiro casse la production — treize heures d'arrêt quand l'algorithme décide que la solution à un bug de routine, c'est de supprimer complètement un environnement de production et le reconstruire à zéro. La réponse d'Amazon ? Exiger des validations par des ingénieurs seniors sur les changements assistés par IA. Problème : ils viennent de virer les ingénieurs seniors.
Cette boucle — mandater l'IA, virer les humains, découvrir qu'on a encore besoin des humains, réaliser qu'ils ne sont plus là — n'est pas unique à Amazon. L'industrie appelle ça le 'dark code' : du code que personne n'a jamais compris, à aucun moment de son cycle de vie. Il a été généré, il a passé les tests automatisés, il a été déployé, mais l'étape de compréhension n'a jamais eu lieu. La vitesse sans compréhension n'est pas un avantage concurrentiel, c'est un compte à rebours.
Points de vigilance
Risque de technosolutionnisme si on pense résoudre le problème par plus de couches techniques. L'enjeu est organisationnel : qui prend les décisions critiques et avec quelle responsabilité.
Et maintenant ?
- 🤘 Créer des collectifs d'ingénieurs pour la responsabilité technique
Syndicats tech + associations professionnelles pour établir des standards de responsabilité sur le code critique. Refuser collectivement de signer du code non-auditable, créer des certifications de 'code compréhensible'. L'effet de levier : les entreprises ne peuvent plus externaliser la responsabilité technique.
→ On saura que ça marche quand les entreprises devront négocier des accords collectifs sur les standards de développement avec leurs équipes techniques.
- 💪 Auditer son propre code avant de partir
Chaque développeur documente systématiquement ses modules critiques avant de changer de poste. Créer un 'testament technique' obligatoire avec les choix architecturaux, les risques identifiés, les points de non-retour. Effet démultiplicateur : éviter que la connaissance parte avec les personnes.
→ On saura que ça marche quand la documentation technique deviendra un critère d'évaluation dans les entretiens annuels et les transitions de poste.
- ✊ Organiser la résistance aux quotas IA par la grève du code
Refus coordonné des équipes techniques de respecter les quotas d'usage d'IA générative sur le code critique. Cibler les piliers de soutien : faire pression sur les investisseurs via les risques opérationnels documentés, mobiliser les clients entreprise sensibles à la fiabilité. Retirer le consentement technique aux décisions prises sans les équipes.
→ On saura que ça marche quand les entreprises devront négocier les périmètres d'usage de l'IA avec leurs équipes techniques plutôt que les imposer par OKR.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Je m'appelle Damien Van Achter, Je suis journaliste, prof et consultant en innovation et en pédagogie entrepreneuriale. Depuis 2005, j'essaye de comprendre et de raconter comment fonctionnent nos systèmes informationnels.
Au cours du temps, j'ai développé des outils d'analyse qui repèrent les pièges tendus par les entreprises de la tech et certains états, et j'explore des pistes pour tenter de s'en libérer, positivement et avec discernement.
J'explique ici ma démarche, inspirée récemment des travaux de l'historien Timothy Snyder, comment ces analyses sont produites techniquement et humainement, ainsi que leurs limites.
On t'a transféré ce mail ? Tu peux t'abonner en 1 clic pour recevoir les suivants.
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Jette un oeil à mon agenda. 📆
@davanac
