
Invité sur le plateau de Bonsoir Bruxelles sur BX1, par Fabrice Grosfilley et Maria Bemba, aux côtés de Philippe Laloux, pour débattre de l'avenir du métier de journaliste face à l'intelligence artificielle, j'ai eu l'occasion de développer quelques convictions forgées par l'expérimentation. Ce qui suit reprend et prolonge les positions que j'y ai défendues — et les tensions que ce débat a fait émerger.
L'intelligence artificielle a déjà transformé le journalisme d'investigation. L'exemple des Panama Papers est parlant : sans traitement automatisé, des centaines de rédactions n'auraient jamais pu exploiter un tel volume de données avec cette précision ni cette rapidité. L'analyse quasi en temps réel d'images de missiles pour décrypter la propagande de tous les camps est un autre cas d'usage désormais opérationnel. Ces pratiques existaient avant, mais l'IA les rend possibles à une échelle sans commune mesure.
Ce que l'IA ne fera jamais, en revanche, c'est parler aux gens dans la rue, boire des coups avec eux, interagir à la sortie d'un cinéma ou dans un stade de foot. Le journalisme de terrain reste irréductiblement humain.
Qui donne les instructions ?
Le débat sur l'IA dans les médias se focalise souvent sur "peut-elle écrire un article ?". La question la plus pertinente est ailleurs : quelles instructions donne-t-on à l'IA ? Sur quelle base, quels critères ? C'est exactement la même question que pour la modération des réseaux sociaux. Modérer, c'est aussi animer — au sens propre : donner une âme à une communauté. L'IA ne fera que ce qu'on lui demande, peut-être plus vite et plus facilement, mais strictement dans le cadre qu'on lui fixe.
La question de pouvoir n'est pas "est-ce que l'IA va écrire ?", mais "qui décide de ce qu'elle écrit et comment".
Le piège de la visibilité
On peut raisonnablement projeter un avenir proche où des textes seront en bonne partie écrits par de l'IA, et où le rôle humain deviendra celui du "challenger" — arriver avec une ligne éditoriale et interroger ce que la machine produit.
Mais le vrai enjeu n'est pas la production en volume. Comment des contenus qui ont pris des mois à être construits, fouillés, enquêtés, peuvent-ils rester aussi visibles que ce qui est produit à la chaîne ?
La technologie évolue toutes les semaines, dans une course à l'échalote entre fournisseurs. Le modèle économique des médias, lui, continue de s'effondrer — la publicité ne paye plus autant qu'avant. Face à cette pression, certains conglomérats médiatiques sont très tentés d'utiliser l'IA pour maintenir le débit : remplir les tuyaux.
C'est une mauvaise bonne réponse. Techniquement faisable, économiquement tentante, structurellement destructrice. Produire plus de contenu de moindre qualité ne résout pas la crise du financement — ça dévalue l'ensemble de l'écosystème informationnel.
Les expérimentations qui poussent la technologie très loin sont utiles — elles révèlent ce qui est possible et ce qui ne l'est pas encore. Mais elles ne valent que dans un cadre où le lecteur sait à quoi il a affaire. La transparence et l'honnêté intellectuelle ne sont pas des options mais les conditions sine qua non du contrat de confiance.
L'écart entre deux mondes
Il y a un monde dans lequel on aimerait vivre — où ces principes seraient la norme, où la qualité serait récompensée, où l'enquête fouillée aurait autant de portée que le contenu produit en masse. Et puis il y a le monde dans lequel on vit, où des gens seront dupés par des contenus synthétiques, où certains médias sacrifient la qualité pour le volume.
Est-ce que des gens vont être sciemment trompés ? Oui. L'enjeu est sociétal et démocratique. Se méfier des images qu'on voit, comprendre les mécanismes de production de l'information, exiger la transparence de ceux qui la produisent — c'est le territoire de l'éducation aux médias.
Et c'est un chantier qui reste largement ouvert.
