
Cette affaire de « résurrections » IA révèle un mécanisme de pouvoir fascinant : OpenAI a créé un outil qui transforme l'identité des morts en matière première virale, puis se pose en régulateur moral après coup. Quand les héritiers de Martin Luther King protestent contre des vidéos racistes, l'entreprise réagit. Quand Zelda Williams supplie qu'on arrête de lui envoyer des deepfakes de son père Robin Williams, OpenAI promet des « protections » pour les « récemment décédés ».
Le problème systémique saute aux yeux : l'architecture même de Sora transforme l'identité posthume en ressource extractible par défaut. L'opt-out familial n'est qu'un sparadrap sur une plaie béante. Comme le souligne le chercheur Hany Farid, même si OpenAI filtre certaines figures, « il y aura un autre modèle d'IA qui ne le fera pas ».
Cette dynamique dépasse largement les célébrités. L'article mentionne que des « personnes décédées non célèbres » peuvent voir leur identité détournée. On assiste à la création d'un nouveau marché : celui de l'exploitation posthume des données biométriques et comportementales. L'identité numérique des morts devient un terrain de jeu commercial, où seuls les ayants droit fortunés peuvent se payer une protection juridique.
Points de vigilance : Débat faussement centré sur le « respect » ou l'éthique alors que l'enjeu structurel est le contrôle des infrastructures d'IA. Risque de solutions purement réactives (filtres, modération) qui ignorent l'architecture extractive fondamentale.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Et maintenant ?
Face à ces enjeux, plusieurs pistes d'action systémique se dessinent.
🤘 Créer un droit opposable à la représentation posthume par IA, inscrit dans le droit à la propriété intellectuelle.
Plutôt que de multiplier les demandes de retrait après coup, on pourrait imaginer un système où toute utilisation d'identité posthume nécessite un consentement préalable explicite – soit du vivant de la personne, soit de ses ayants droit. Cette approche casserait la logique extractive actuelle où l'identité des morts devient une ressource libre de droits. L'enjeu serait de rendre cette protection techniquement impossible à contourner : bases de données d'identités protégées, reconnaissance automatique, blocage en amont plutôt qu'en aval.
On saura que ça marche quand les plateformes d'IA intégreront nativement des systèmes de vérification d'autorisation avant génération, et quand émergera un écosystème juridique international unifié sur l'identité posthume.
💪 Développer des coalitions entre familles de célébrités, organisations de défense des droits numériques et autorités de protection des données.
L'affaire révèle une convergence d'intérêts entre différents acteurs habituellement éloignés : les héritiers Williams et Malcolm X défendent la même cause que les militants de la vie privée. Cette coalition pourrait peser juridiquement et médiatiquement pour imposer des standards industriels contraignants. L'objectif serait de transformer le « scandale ponctuel » en pression systémique sur l'ensemble de l'industrie IA, pas seulement OpenAI.
On saura que ça marche quand apparaîtront des recours collectifs coordonnés et des campagnes de boycott ciblées, forçant les entreprises d'IA à modifier leur architecture technique plutôt que leurs politiques d'usage.
✊ Imposer la traçabilité obligatoire des contenus générés par IA avec identification de la source et du modèle utilisé.
Le problème soulevé par Hany Farid – « il y aura toujours un autre modèle » – appelle une réponse au niveau de l'écosystème complet. En rendant obligatoire l'identification technique de tout contenu IA (watermarking, métadonnées), on créerait une responsabilité en cascade : plateformes, créateurs d'outils, utilisateurs. Cette traçabilité permettrait aux familles d'identifier rapidement les sources et d'engager des actions ciblées, tout en sensibilisant le public aux manipulations.
On saura que ça marche quand les deepfakes anonymes deviendront techniquement impossibles à diffuser sur les grandes plateformes, et quand émergera un marché de la certification d'authenticité des contenus.
Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !
Cinq piliers pour prendre soin de nos libertés numériques


