Cette intervention TED de Sasha Luccioni met le doigt sur une contradiction majeure de l'IA contemporaine : plus les modèles grossissent, plus ils centralisent le pouvoir entre les mains des géants technologiques capables de financer des data centers pharaoniques. Ce qui ressort de son propos, c'est que l'impératif écologique pourrait paradoxalement devenir un levier de décentralisation. Les 'small but mighty AI models' qu'elle défend ne sont pas qu'une solution environnementale – ils redessinent potentiellement la géographie du pouvoir algorithmique.
L'enjeu de souveraineté transparaît dans cette logique : si des modèles plus légers peuvent tourner sur des infrastructures plus modestes, cela ouvre la voie à une IA moins dépendante des GAFAM. On touche aussi à la factualité : les entreprises tech communiquent massivement sur leurs engagements carbone tout en construisant des data centers toujours plus énergivores. Luccioni expose cette contradiction et remet les faits au centre : l'IA actuelle brûle des quantités d'énergie considérables.
Ce qui manque dans cette présentation courte, c'est l'analyse des mécanismes économiques qui maintiennent le statu quo. Les Big Tech ont intérêt à maintenir des barrières à l'entrée élevées via des modèles toujours plus gourmands en ressources. La question devient : qui contrôlera cette transition vers une IA sobre ?
Points de vigilance : Risque de greenwashing : des modèles 'verts' qui restent propriétaires. Confusion entre efficience technique et démocratisation réelle de l'IA.
7/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder

Et maintenant ?
Face à ces enjeux, plusieurs pistes d'action systémique se dessinent.
🤘 Créer un label européen d'IA sobre avec critères contraignants de consommation énergétique.
L'idée serait d'imposer une transparence obligatoire sur l'empreinte carbone des modèles IA, mais surtout de favoriser fiscalement les architectures décentralisées. Une alliance entre régulateurs européens, ONG environnementales et développeurs de modèles ouverts pourrait pousser cette certification. L'effet de levier : forcer les géants à publier leurs métriques énergétiques réelles, créer un avantage concurrentiel pour les alternatives sobres.
On saura que ça marche quand les appels d'offres publics intégreront systématiquement des critères d'efficience énergétique IA, et quand les premiers modèles 'Made in Europe' sobre concurrenceront les géants américains sur des cas d'usage spécifiques.
💪 Soutenir l'émergence de coopératives technologiques spécialisées dans l'IA frugale.
Ces structures hybrides pourraient mutualiser les coûts R&D tout en gardant les modèles dans les communs. L'idée : reproduire le succès des SCOP dans le secteur tech, avec un focus sur l'IA économe en ressources. Cela casserait le monopole des Big Tech en créant un écosystème alternatif financièrement viable, porté par des collectivités locales et des entreprises socialement responsables.
On saura que ça marche quand les premières coopératives IA atteindront la rentabilité et quand des régions entières s'équiperont via ces structures plutôt que via les géants tech. À moyen terme, quand ces coopératives essaimeront dans d'autres pays européens.
✊ Imposer un droit à l'IA légère dans les services publics.
Plutôt que de subir les solutions clés en main des GAFAM, les administrations exigeraient des solutions IA proportionnées à leurs besoins réels. Cette approche 'small by design' créerait un marché captif pour les alternatives sobres tout en réduisant la dépendance technologique du secteur public. Une coalition d'élus locaux, de DSI publics et d'associations environnementales pourrait porter cette exigence.
On saura que ça marche quand les cahiers des charges publics intégreront systématiquement des clauses d'efficience énergétique, et quand les premières collectivités revendiqueront leur autonomie technologique via l'IA frugale.
Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.
Si tu connais des exemples réels qui vont dans ce sens — ou des contre-exemples qui méritent d'être documentés — partage-les moi et documentons les ensemble !
Cinq piliers pour prendre soin de nos libertés numériques

