
Ce qui frappe dans les données Tesla, ce n'est pas tant les 14 accidents en 8 mois que l'obstination à les rendre opaques. Là où Waymo, Zoox et tous les autres opérateurs autonomes fournissent des récits détaillés de leurs incidents à la NHTSA, Tesla redacte systématiquement tout sous couvert d'« information commerciale confidentielle ». Un accident sur 57 000 miles contre un toutes les 229 000 miles pour un conducteur humain moyen selon les propres chiffres de Tesla — soit 4 fois pire.
"Tesla reste le seul opérateur de systèmes de conduite autonome à cacher systématiquement les détails d'accidents au public grâce aux dispositions de confidentialité de la NHTSA"
— Electrek, Média spécialisé véhicules électriques
Plus inquiétant encore : Tesla a discrètement reclassé un accident de juillet 2025, passant de « dégâts matériels seulement » à « blessure mineure avec hospitalisation » cinq mois plus tard, sans jamais l'annoncer publiquement. Cette double asymétrie — opacité totale sur les causes, minimisation initiale des conséquences — révèle une stratégie délibérée pour éviter la responsabilité publique tout en revendiquant une sécurité supérieure aux humains.
Points de vigilance
Attention aux comparaisons accidents/miles sans tenir compte des contextes de conduite différents. Le danger réside dans la normalisation de l'opacité comme standard industriel.
Et maintenant ?
- 🤘 Coaliser régulateurs et assureurs pour imposer la transparence algorithmique
Les compagnies d'assurance ont un intérêt économique direct à comprendre les causes d'accidents autonomes. Une alliance entre NHTSA, assureurs et États fédérés peut créer une pression économique pour forcer la publication des narratifs d'accidents, en rendant l'opacité plus coûteuse que la transparence.
→ On saura que ça marche quand les primes d'assurance autonome varieront publiquement selon la transparence des données de crash de chaque constructeur.
- 💪 Exiger les données d'accident avant de monter dans un véhicule autonome
Chaque passager peut demander à consulter les statistiques d'accidents et les récits de crash avant d'utiliser un service. Cette pression individuelle, si elle se généralise, force les opérateurs à choisir entre transparence et perte de clientèle informée.
→ On saura que ça marche quand les applications de réservation afficheront obligatoirement les taux d'accidents et la transparence des données comme critères de choix.
- ✊ Organiser un boycott coordonné des investisseurs tech contre l'opacité sécuritaire
Les fonds ESG et investisseurs institutionnels peuvent refuser de financer les entreprises tech qui cachent leurs données de sécurité publique. Cette pression financière cible le pilier 'capital' de Tesla en rendant l'opacité incompatible avec les critères d'investissement responsable.
→ On saura que ça marche quand les critères ESG intégreront explicitement la transparence des données de sécurité autonome comme standard de notation.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !

