Quand l'algorithme libère du déterminisme de nos préférences

Un ingénieur Google utilise des algorithmes de randomisation pour échapper à la prédictibilité de sa vie optimisée. Paradoxe : déléguer ses choix à la machine pour retrouver sa liberté.

13 mai 2026
Quand l'algorithme libère du déterminisme de nos préférences
He’s So Random
A software engineer wanted to resist the usual algorithms. So he created his own—and transformed his whole existence.

Max Hawkins découvre qu'une étude sur 100 000 utilisateurs de téléphones révèle la prévisibilité de nos mouvements quotidiens. Sa réaction ? Créer des algorithmes pour randomiser ses décisions : restaurants, destinations, événements, même ses tatouages. Pendant deux ans, il vit nomade, laissant ses programmes choisir ses lieux de résidence.

"Quand on a un plan fixe, une identité fixe, une routine fixe, il est facile de devenir prisonnier de ses préférences."

— Max Hawkins, Ex-ingénieur logiciel, Google

L'expérience révèle un paradoxe central : pour échapper à l'optimisation algorithmique qui nous enferme, il utilise d'autres algorithmes. Mais à Williamston, Caroline du Nord, il réalise les limites : « Quand on vit au hasard, on crée du bruit qui ne va dans aucune direction. » L'enjeu dépasse l'anecdote personnelle. Dans un monde où nos préférences sont captées et exploitées pour nous maintenir dans des bulles prédictives, la randomisation devient une forme de résistance. Elle expose à l'incertitude contrôlée, développe la tolérance à l'imprévu, révèle les identités alternatives possibles.

Points de vigilance

Risque de fétichisation de la technologie comme solution à un problème créé par la technologie. La randomisation peut devenir une nouvelle forme d'aliénation si elle évite la réflexion sur les causes structurelles de l'enfermement algorithmique.

Et maintenant ?

  • 💪 Auditer ses propres patterns de comportement numérique

Utiliser les données d'export de ses plateformes (Google Takeout, Facebook, Spotify) pour visualiser ses boucles de recommandation et identifier les bulles prédictives. Créer des métriques personnelles de diversité (nouveaux artistes/mois, sources d'info variées, trajets alternatifs).

→ On saura que ça marche quand les gens demanderont des tableaux de bord de diversité comportementale à leurs plateformes

  • 🤘 Développer des outils de randomisation éthique open source

Créer une coalition développeurs-chercheurs pour construire des alternatives aux algorithmes de recommandation. Outils qui injectent de la sérendipité contrôlée sans capturer les données. Protocoles ouverts pour l'exploration vs exploitation dans les interfaces.

→ On saura que ça marche quand les plateformes proposeront nativement des modes 'exploration' paramétrables par l'utilisateur

  • ✊ Organiser des journées de désobéissance algorithmique collective

Coordonner des actions où les utilisateurs perturbent volontairement leurs profils : écouter de la musique aléatoire, visiter des sites hors-profil, cliquer sur des pubs non-ciblées. Créer du bruit dans les systèmes de profilage pour réduire leur efficacité prédictive.

→ On saura que ça marche quand les plateformes devront ajuster leurs algorithmes face à l'imprévisibilité organisée des comportements


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆