
Le jour même où Wikipédia célèbre un quart de siècle d'existence, la Wikimedia Foundation annonce des partenariats commerciaux avec les géants de l'IA. Amazon, Meta, Microsoft, Perplexity, Mistral rejoignent Google dans le programme Wikimedia Enterprise. Ces entreprises qui, pendant des années, ont pillé massivement les 65 millions d'articles de l'encyclopédie pour entraîner leurs modèles de langage, vont désormais payer pour un accès structuré.
Wikipédia alimente les IA qui détournent son audience qui finance ses serveurs.
Seul site non-lucratif du top 10 mondial, Wikipédia incarne ce qui reste de l'utopie originelle d'internet : un espace où 250 000 bénévoles éditent 324 fois par minute pour produire un savoir vérifié, neutre, accessible. La question n'est plus de savoir si ce modèle a de la valeur — 15 milliards de vues mensuelles le prouvent — mais qui va payer pour le maintenir vivant.
Le trafic humain a chuté de 8% en un an tandis que des bots déguisés saturaient l'infrastructure. La fondation tente donc de transformer cette menace en opportunité avec une stratégie IA "qui place l'humain au centre", mais le slogan de la campagne — "Knowledge is human, knowledge needs humans" — sonne autant comme un rappel que comme un aveu de vulnérabilité.
« Les donateurs ne contribuent pas pour subventionner ces énormes entreprises d'IA. Ils disent : vous ne pouvez pas simplement défoncer notre site web, vous devez entrer par la bonne porte. »
— Jimmy Wales, Fondateur de Wikipédia, interview Associated Press

J'ai eu le plaisir d'intervenir au JT de la RTBF le 15 janvier 2026 pour analyser les risques liés à ce tournant.

Le risque est triple. D'abord, une dépendance financière croissante envers les mêmes acteurs qui fragilisent le modèle — que se passe-t-il si Meta ou Microsoft décident de cesser de payer ? Ensuite, une tension potentielle avec la communauté des 250 000 bénévoles qui ont déjà manifesté leur hostilité à l'IA sur la plateforme et qui pourraient voir ces partenariats comme une trahison de l'esprit collaboratif originel.
Enfin, le risque que la stratégie de "rajeunissement" (jeux, TikTok, mascotte, merchandising) dilue l'identité d'un projet fondé sur la rigueur encyclopédique et le bénévolat érudit.
9/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

🎯Et Maintenant ?
🤘 Créer un label "AI-Fair" pour les modèles qui rémunèrent leurs sources
Développer une certification indépendante, portée par une coalition d'ONG numériques et de fondations académiques, qui identifie les modèles d'IA ayant des accords équitables avec leurs sources de données. L'effet de levier vise les utilisateurs professionnels (entreprises, administrations) qui pourraient exiger ce label dans leurs appels d'offres. Le précédent du commerce équitable montre que la différenciation par l'éthique peut créer un avantage concurrentiel.
Signal structurel : On saura que ça marche quand au moins trois grandes entreprises européennes incluront ce critère dans leurs politiques d'achat IA.
🤘 Organiser une coalition européenne des communs numériques
Fédérer Wikimedia, OpenStreetMap, Internet Archive et les projets open source majeurs dans une structure de négociation collective face aux Big Tech. L'enjeu est de créer un rapport de force : isolée, chaque fondation négocie en position de faiblesse ; ensemble, elles représentent l'infrastructure invisible sur laquelle repose l'économie numérique.
Signal structurel : On saura que ça avance quand la Commission européenne inclura les communs numériques dans sa stratégie de souveraineté numérique.
💪 Paramétrer ses outils IA pour afficher systématiquement les sources
Action individuelle à effet multiplicateur : exiger dans ses prompts que l'IA cite ses sources et affiche les liens originaux. Plusieurs interfaces (Perplexity, Bing Chat) le permettent déjà. L'effet de levier : si les utilisateurs prennent l'habitude de cliquer sur les sources, le trafic humain vers Wikipédia se maintient, préservant le modèle de don.
Signal structurel : On saura que ça marche quand les statistiques de Wikimedia montreront une stabilisation du trafic référent depuis les interfaces IA.
Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les en commentaires et discutons-en ensemble sur Discord !
Cinq piliers pour prendre soin de nos libertés numériques



