Sam Altman vend le problème ET la solution de l'authentification humaine

Le patron d'OpenAI déploie des orbes biométriques pour certifier l'humanité face aux IA qu'il a lui-même contribué à créer. Zoom, DocuSign et Tinder adoptent déjà le système.

27 avr. 2026
Sam Altman vend le problème ET la solution de l'authentification humaine
Sam Altman Wants to Know Whether You’re Human
And he has a way to prove it.

Sam Altman incarne le paradoxe de notre époque : PDG d'OpenAI, il a contribué à démocratiser les IA génératives qui rendent l'authentification humaine cruciale. Aujourd'hui, via Tools for Humanity, il déploie des orbes biométriques qui scannent les iris pour certifier l'humanité numérique. Le système World ID s'étend rapidement : Zoom et DocuSign l'intègrent pour leurs utilisateurs, Tinder le généralise après des tests au Japon.

"Je pense que voler dans un grand magasin — je vais juste exposer ma position — ce n'est ni très significatif comme tort moral, ni significatif d'aucune manière comme protestation ou action directe"

— Jia Tolentino, Écrivaine, The New Yorker

L'ironie du modèle économique saute aux yeux : Altman monétise à la fois la création du problème (IA trompeuses) et sa solution (vérification biométrique). Cette double casquette révèle une asymétrie de pouvoir où les architectes de l'IA contrôlent aussi les garde-fous. Le système fonctionne par cryptage local des données biométriques, mais la confiance reste fragile : Tools for Humanity a récemment menti sur un partenariat avec Bruno Mars, soulevant des questions sur la crédibilité d'un arbitre de vérité.

Points de vigilance

Risque de monopolisation de l'authentification par celui qui crée le besoin. Centralisation biométrique mondiale entre les mains d'un acteur privé. Mensonge sur le partenariat Bruno Mars révèle fragilité de la confiance.

Et maintenant ?

  • 🤘 Créer un consortium d'authentification décentralisé multi-acteurs

Alliance entre régulateurs européens, fondations tech (Mozilla, Wikimedia) et universités pour développer des standards ouverts d'authentification humaine. Éviter qu'un seul acteur contrôle la vérification d'identité numérique mondiale.

→ On saura que ça marche quand au moins 3 gouvernements adopteront des standards communs d'authentification non-propriétaires.

  • 💪 Auditer publiquement les conflits d'intérêts des architectes IA

Documenter et publier les participations croisées des dirigeants tech dans les problèmes qu'ils prétendent résoudre. Créer une transparence sur qui profite de quoi dans l'écosystème IA.

→ On saura que ça marche quand les investisseurs exigeront des déclarations de conflits d'intérêts avant tout financement de 'solutions' IA.

  • ✊ Coordonner le retrait des services à double casquette

Refuser collectivement les services d'authentification proposés par les créateurs des problèmes qu'ils prétendent résoudre. Cibler spécifiquement les entreprises qui monétisent les deux côtés du problème.

→ On saura que ça marche quand les plateformes proposeront des alternatives d'authentification développées par des tiers indépendants.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆