L'IA au quotidien des rédactions : l'appui de la machine et la décision de l'humain

Amith J. Kamath, doctorant à l'Université de Berne, au Centre ARTORG de recherche en génie biomédical, au sein du groupe d'analyse d'images médicales, examine sur un écran des images du cerveau à l'aide de l'IA
KEYSTONE / Gaëtan Bally
Médias Texte Interview Éducation aux médias

Barnaby Skinner est rédacteur en chef adjoint de la NZZ. Dans cet entretien avec notre CEO Hanspeter Kellermüller, il est question de l'usage et des limites de l'intelligence artificielle dans le journalisme.

Barnaby Skinner
Rédacteur en chef adjoint NZZ
Barnaby Skinner est rédacteur en chef adjoint de la NZZ depuis septembre 2024, où il y a précédemment dirigé la rubrique Visuals (comprenant les pôles graphisme, données, Editorial Tech et OSINT). Il est reconnu comme un expert à l’interface de la technologie, du journalisme de données et des modes de narration modernes. Depuis novembre 2025, il assure également la présidence du Groupe de Réflexion (GdR) de Keystone-ATS.
Q
Hanspeter Kellermüller: Aujourd’hui, l’intelligence artificielle (IA) est devenue presque incontournable dans le quotidien rédactionnel. D’après votre expérience, quelles sont actuellement les applications les plus utilisées ?
A
Barnaby Skinner: Comme la plupart des rédactions, à la NZZ, nous avons intégré différents outils d’IA dans notre système rédactionnel. L’un des usages quotidiens est l’aide au traitement des métadonnées, par exemple pour l’optimisation des moteurs de recherche. L’IA peut aider à trouver un titre qui fonctionne bien dans la recherche Google, ou à adapter un contenu dans un format approprié pour les réseaux sociaux. Ce sont des d’applications courantes dans la plupart des newsrooms, qui permettent de gagner en efficacité. Il existe aussi des outils de recherche très performants. Ils permettent de constituer un dossier sur un thème précis. Lorsqu’on connaît bien la matière, on peut aller très loin très rapidement. Un autre usage que j’observe fréquemment est le recours à l’IA pour la génération d’idées.
Q
Y a-t-il des domaines où l’usage reste encore mesuré ?
A
Nous restons prudents lorsqu’il s’agit de produire des contenus journalistiques complets. Nous ne voulons pas déléguer la responsabilité rédactionnelle à une machine — et c’est bien ainsi. La situation diffère lorsqu’il s’agit de transformer des contenus existants dans d’autres formats. Du point de vue de l’entreprise, il faut se demander s’il ne faudrait pas à l’avenir recourir de manière plus systématique à l’IA. La qualité des fonctions de lecture audio, en particulier, s’est nettement améliorée ces dernières années. Il existe désormais aussi des outils capables de générer en un clic, à partir de sources primaires existantes, un court podcast, des graphiques ou des diaporamas. Le problème reste que, lorsque la représentation est erronée, il est difficile de la corriger, car la machine produit des objets finis compliqués à éditer. Mais c’est précisément cela qu’il faut désormais expérimenter.
Q
Cela signifie-t-il qu’à l’heure actuelle l’IA est surtout utilisée comme outil interne, plutôt que pour automatiser directement les produits ?
A
Il y a naturellement aussi des applications de ce type. Nous menons actuellement une expérience avec un briefing audio économique. Plusieurs textes déjà publiés sont résumés par une IA, puis vérifiés par les auteurs, avant d’être lus par l’IA et publiés une fois par semaine sous forme de briefing audio. Cela nous permet d’assurer le contrôle qualité nécessaire tout en automatisant la transformation d’un média vers un autre. Le contrôle est effectué par les auteurs, car ce sont eux qui connaissent le mieux le contenu. Pour chacun, cela implique une charge de travail supplémentaire. Mais, en tant qu’entreprise de médias, cela nous rend plus efficaces si nous pouvons soudainement réaliser un nouveau produit avec un effort raisonnable.
Q
Il ne s’agit donc pas seulement de rendre plus efficaces les processus existants, mais aussi d’élargir l’offre journalistique ?
A
Exactement. Grâce à l’IA, nous sommes en mesure de développer des offres pour lesquelles nous ne disposions jusqu’ici ni des moyens ni des possibilités nécessaires.
Q
Les rédactions sont soumises depuis des années à d’énormes transformations. En même temps, il n’est pas toujours simple de modifier les processus et les routines du quotidien journalistique. Quelles sont les exigences auxquelles un outil d’IA doit répondre pour que les journalistes l’utilisent réellement dans leur travail quotidien ?
A
Prenons un exemple concret : de nombreux journalistes sont impressionnés par Notebook LM. Il s’agit d’un assistant de recherche capable d’analyser, de résumer ou de transformer des documents téléversés. Ce qui est décisif pour son acceptation, c’est que le journaliste choisisse lui-même les sources primaires et sache exactement avec quels documents la machine travaille — le contrôle du contenu reste ainsi à tout moment entre les mains de l’être humain.
Q
Il existe une crainte largement répandue selon laquelle l’IA entraînera la disparition de nombreux emplois. Dans le passé, lors de phases d’innovation, on a cependant surtout observé des déplacements sur le marché du travail à l’échelle de l’économie : certains emplois disparaissent, tandis que de nouveaux métiers apparaissent. Peut-on déjà discerner quelles nouvelles fonctions verront le jour au sein d’une rédaction ?
A
La possibilité de générer, avec un effort minimal, des produits ou formats médiatiques entièrement nouveaux oblige une rédaction à réfléchir aux compétences clés et aux ressources dont elle a réellement besoin. Combien de personnes devraient se consacrer au layout? Combien devraient rédiger des éditoriaux ? Comment mènerons-nous nos recherches à l’avenir ? De quelles compétences une rédaction aurat-elle besoin, par exemple dans le domaine de la vidéo, de la correction ou encore du choix des sujets ? Dans de nombreux domaines, certaines tâches peuvent être accomplies plus efficacement grâce à l’IA — ce qui libère du temps pour les missions journalistiques essentielles. En parallèle, de nouvelles tâches vont apparaître. Il faudra peut-être quelqu’un pour vérifier la prononciation phonétique correcte des mots, ou même des « sound designers ». Nous ne connaissons pas encore les réponses à beaucoup de questions fondamentales.
Q
La part des contenus synthétiques sur Internet augmente. Comment un média d’information peut-il encore se distinguer dans ce flot ? Faut-il un repositionnement fondamental ou est-ce toujours avec les mêmes critères de qualité qu’il pourra s’imposer dans ce nouvel univers ?
A
La promesse de valeur de la NZZ n’a pas fondamentalement changé en bientôt 250 ans. Il s’agit de proposer une lecture du contexte mondial d’un point de vue libéral. On pouvait récemment lire dans une étude qu’il existe déjà en ligne davantage de contenus synthétiques que de contenus générés par des humains. Ce chiffre grimpera sans doute bientôt à 99 %, tout simplement parce que la production de contenus par l’IA est si facile. Cela ne rend les contenus créés par des humains que plus précieux encore. Nous utiliserons certes l’IA comme outil pour produire de nouveaux produits. Mais ces produits ne seront jamais simplement mis en ligne de manière automatique. Derrière tous les contenus, il y aura aussi à l’avenir à la NZZ des êtres humains portant un regard sur le monde qui aide à mettre en perspective les événements actuels.
Q
L’opposition n’est donc pas vraiment entre journalisme et IA, puisque l’IA sera utilisée dans le journalisme. La question décisive est plutôt de savoir ce qui sera automatisé et ce qui ne le sera pas. En fin de compte, est-ce la sélection des contenus et le contrôle qualité final qui font la différence ?
A
Nous utilisons l’IA comme outil pour produire nos contenus, et nous le ferons sans doute de manière de plus en plus intensive. Pour bien le faire, nous devons comprendre et maîtriser nos données ainsi que nos contenus. Mais une chose reste vraie : chaque contenu commence et se termine avec l’être humain. Cela peut paraître banal. En réalité, cette idée soulève des questions fondamentales. L’IA nous oblige à réfléchir à ce que sont les véritables compétences-clés du journalisme. L’une de ces compétences consiste à poser la bonne question au bon moment. Et à y répondre de manière claire et parlante. Pour cela, on peut aujourd’hui utiliser des outils très différents : décrocher son téléphone, faire une recherche sur Google, sortir, parler à des gens, chercher des documents. Ou interroger une IA.
Q
La consommation d’informations via des chatbots d’IA progresse. Qu’est-ce que cela signifie pour la diffusion des contenus médiatiques ? Comment une marque média peut-elle faire en sorte que son offre reste pertinente, visible et demandée ?
A
Les chatbots ont tendance à rendre invisibles les sources originales. C’est pourquoi un contrôle strict de ses propres données, via des paywalls et des accords de licence ciblés avec les développeurs d’IA, est indispensable pour garantir la monétisation de son travail de recherche journalistique. En même temps, le simple repli défensif ne suffit pas. Pour rester pertinente, la marque doit être présente de multiples façons au-delà de son propre portail d’information : à travers des formats émotionnels comme les podcasts, sur les agrégateurs d’actualités, mais aussi via l’affichage publicitaire ou des événements en présentiel. L’objectif est de fidéliser l’utilisateur non seulement par le contenu, mais aussi par la promesse de qualité portée par la marque.
Q
Cela signifie donc que les chatbots ne couvrent pas tous les besoins d’information des utilisateurs et qu’il continuera d’exister une demande pour une offre éditoriale sélectionnée ?
A
La curation classique de l’information n’est pas remplacée par la personnalisation assistée par l’IA ; elle est portée à un niveau supérieur. Les contenus peuvent désormais être adaptés avec précision et de manière multi-formats aux besoins des utilisateurs. Des applications mobiles comme Huxe montrent déjà comment l’interaction permet de proposer une offre d’information toujours plus pertinente, y compris pour des niches locales. Là aussi, les entreprises de médias doivent se demander si elles veulent ouvrir leurs contenus exclusifs à de telles plateformes tierces, et jusqu’où.
Q
Il semble qu’il existe différentes stratégies à cet égard. Certains médias veulent à tout prix apparaître dans les chatbots d’IA. Est-ce réellement utile si les utilisateurs ne cliquent pas sur les sources originales ?
A
Si les utilisateurs ne cliquent pas sur la source originale, cela présente à mes yeux peu d’intérêt. Dans la recherche Google classique, la visibilité est donnée : on reste la source, on dispose d’un teaser, et on obtient du trafic vers ses propres pages. Avec les chatbots d’IA, cette logique ne fonctionne pas. Les contenus et leur mise en perspective y sont diffusés directement, sans retour vers l’offre propre du média. Il existe certes des coopérations qui rendent visibles les marques médiatiques, ce qui peut aider à court terme en matière de notoriété. Mais au final, ce sont surtout les plateformes qui en profitent : la création de valeur et les données restent chez les Big Tech.
Q
Outre la protection technique des données, il existe aussi un débat sur une rémunération équitable et une régulation appropriée. Plusieurs procédures judiciaires sont également en cours. Une adaptation législative est-elle nécessaire pour protéger les contenus des médias ?
A
Compte tenu des violations répétées du droit d’auteur par les Big Tech, une clarification politique et juridique est incontournable. L’association des éditeurs soutient à cet égard des initiatives législatives ciblées, comme la motion déposée par la conseillère aux États Petra Gössi, afin de créer une base équitable pour des modèles modernes de licence. Étant donné que les grands modèles de langage dépendent, pour les informations actuelles, de sources externes — et continueront de le faire —, des solutions techniques telles que la mesure de la fréquence d’accès ou du volume de données utilisé pourraient servir de base à une rémunération financière appropriée. En définitive, un modèle de rémunération est essentiel pour refinancer les coûts liés à la production de contenus journalistiques de haute qualité à l’ère de l’intelligence artificielle.
Q
Vous avez récemment défendu dans un éditorial l’idée que l’usage de l’IA ne conduit pas nécessairement à davantage d’uniformisation, mais peut au contraire affiner l’analyse individuelle de chacun. Ce serait un effet positif sur la société et la formation de l’opinion. D’un autre côté, il y a le scénario de l’«enshitification», avec la dégradation qualitative des offres et des contenus. Comment voyez-vous personnellement cette évolution ?
A
L’IA est en fin de compte un outil. Et, comme pour tout outil, son effet dépend de la manière dont on l’utilise. Dans le meilleur des cas, l’IA peut affûter l’esprit critique. Mais si les choses tournent mal, elle risque d’encourager une utilisation purement passive, et donc un appauvrissement intellectuel menant à un paysage médiatique uniformisé. L’histoire des techniques nous enseigne toutefois que même des innovations à très haut risque, comme la technologie nucléaire, ont pu, après des débuts catastrophiques, être orientées vers un usage sûr et civil grâce à l’apprentissage et à la régulation. Pour faire en sorte que l’IA fonctionne avant tout comme une impulsion positive pour la formation de l’opinion, le système éducatif joue sans doute un rôle décisif. Si les sociétés et les écoles développent et transmettent un rapport sain à cette technologie, les jeunes apprendront à maîtriser les potentiels de l’IA sans perdre leur capacité de réflexion autonome.
Q
Et même si la part de contenus synthétiques de faible qualité augmente, cela renforce-t-il au moins la position d’un journalisme de qualité ?
A
J’en suis convaincu. En fin de compte, le changement technologique renforce toutes les marques médiatiques qui misent sur la crédibilité et l’expertise humaine face à la simple quantité de contenus artificiels.