
Cette recherche australienne bouleverse la conversation habituelle sur l'IA. Plutôt que de partir du principe que l'adoption est inévitable, le projet Relational Futures a interrogé les peuples aborigènes et insulaires du détroit de Torres sur leur expérience concrète de l'IA. Le constat est sans appel : ces communautés expriment une méfiance limitée et une volonté claire de refuser certains usages. Leur approche révèle une asymétrie fondamentale : l'IA entre dans des institutions où le pouvoir, la confiance et la responsabilité sont déjà inégalement répartis.
"Il y a des moments où l'IA ne saisit pas vraiment la profondeur des expériences des Premières Nations, les nuances culturelles ou la dynamique communautaire. Elle peut manquer le poids émotionnel ou le contexte, ce qui me rappelle que l'autorité culturelle doit toujours rester avec la communauté, pas avec la technologie."
— Participant anonyme, Membre de communauté autochtone australienne
Quand les choses tournent mal — comme avec Robodebt — les impacts ne sont pas ressentis de manière égale. L'innovation conceptuelle réside dans leur vision de la souveraineté des données autochtones : les droits collectifs et les responsabilités dans la gouvernance des données, l'autorité des peuples autochtones à contrôler les données relatives à leurs communautés sur l'ensemble du cycle de vie des données. Cette approche relationnelle pose une question dérangeante : et si on concevait l'IA autour du soin, de la connaissance culturelle et de la responsabilité communautaire, plutôt qu'autour de la vitesse et de l'efficacité ?
Points de vigilance
Risque de romantisation des approches autochtones sans comprendre leurs mécanismes concrets. Attention à ne pas instrumentaliser ces perspectives comme simple caution morale sans transformation structurelle des processus de conception.
Et maintenant ?
- 🤘 Créer des conseils consultatifs autochtones pour l'audit des systèmes d'IA
Institutionnaliser la participation des communautés autochtones dans l'évaluation des systèmes d'IA avant déploiement, avec pouvoir de veto sur les projets qui reproduisent les inégalités existantes. Modèle : conseils d'éthique hospitaliers avec représentation communautaire obligatoire.
→ On saura que ça marche quand les entreprises tech devront publier les avis de ces conseils avant tout déploiement dans les services publics.
- 🤘 Développer des standards de souveraineté des données autochtones
Transformer les principes de souveraineté des données autochtones en standards techniques et juridiques contraignants, avec certification indépendante. Créer une coalition internationale de peuples autochtones pour harmoniser ces standards au-delà des frontières nationales.
→ On saura que ça marche quand les appels d'offres publics incluront systématiquement des critères de souveraineté des données autochtones.
- 💪 Adopter le principe de conception pour les marges dans ses projets
Appliquer systématiquement le test : 'Si ce système fonctionne pour les plus surveillés et marginalisés, il fonctionnera pour tous.' Commencer tout projet d'IA par identifier les communautés les plus vulnérables et concevoir d'abord pour leurs besoins.
→ On saura que ça marche quand les cahiers des charges d'IA incluront systématiquement une analyse d'impact sur les communautés marginalisées.
8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.
Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

💬 On en discute ?
Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !
Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆
