KI im Redaktionsalltag: Wo die Maschine hilft und der Mensch entscheidet

Amith J. Kamath, PhD-Student an der University of Bern, ARTORG Center for Biomedical Engineering Research, Medical Image Analysis Group, betrachtet mithilfe von KI Bilder eines Gehirns auf einem Bildschirm
KEYSTONE / Gaëtan Bally
Medien Text Interview Nachrichtenkompetenz

Barnaby Skinner ist Stellvertretender Chefredaktor der NZZ. Im Gespräch mit unserem CEO Hanspeter Kellermüller geht es um den Einsatz und die Grenzen von künstlicher Intelligenz im Journalismus

Barnaby Skinner
Stellvertretender Chefredaktor NZZ
Barnaby Skinner ist seit September 2024 Stellvertretender Chefredaktor der NZZ, nachdem er dort zuvor das Ressort Visuals (Grafik, Daten, Editorial Tech und OSINT) leitete. Er gilt als Experte für die Schnittstelle zwischen Technologie, Datenjournalismus und moderner Berichterstattung. Zudem ist er seit November 2025 Präsident der Groupe de Réflexion (GdR) von Keystone-SDA.
Q
Hanspeter Kellermüller: Künstliche Intelligenz (KI) ist heute aus dem redaktionellen Alltag kaum mehr wegzudenken. Welches sind aus Deiner Erfahrung diejenigen Anwendungen, die aktuell am meisten zum Einsatz kommen?
A
Barnaby Skinner: Wie die meisten Redaktionen haben wir auch bei der NZZ verschiedene KI-Werkzeuge in unserem Redaktionssystem integriert. Etwas, das täglich zum Einsatz kommt, ist die Unterstützung bei der Verarbeitung von Metadaten etwa für die Suchmaschinen-Optimierung. KI kann dabei helfen, einen Titel zu finden, der in der Google-Suche gut funktioniert, oder dabei, den Inhalt in ein passendes Format für Social Media zu bringen. Das sind Beispiele, wie sie in den meisten Newsrooms zur Anwendung kommen und welche die Effizienz steigern. Es gibt auch sehr performante Recherche-Tools. Damit kann man sich zu einem bestimmten Thema ein Dossier zusammenstellen. Wenn man sich mit der Materie auskennt, dann kommt man damit sehr schnell sehr weit. Was ich ebenfalls häufig sehe, ist der Einsatz von KI bei der Ideen-Generierung.
Q
Gibt es Bereiche, wo der Einsatz noch verhalten ist?
A
Zurückhaltend sind wir dort, wo es um die Erstellung kompletter journalistischer Inhalte geht. Die redaktionelle Verantwortung wollen wir nicht an eine Maschine auslagern — und das ist auch richtig so. Anders ist die Situation bei der Umwandlung bestehender Inhalte in andere Formate. Hier muss man sich aus Unternehmenssicht schon die Frage stellen, ob man künftig nicht konsequent mehr KI einsetzen sollte. Gerade bei Vorlesefunktionen hat sich die Qualität in den letzten Jahren stark verbessert. Mittlerweile gibt es zudem Werkzeuge, die aus vorhandenen Primärquellen auf Knopfdruck einen kurzen Podcast, Diagramme oder Slideshows generieren. Das Problem bleibt hier allerdings, dass bei falschen Darstellungen eine Korrektur nur schwer möglich ist, weil die Maschine fertige Produkte herstellt, die schwer zu editieren sind. Aber damit gilt es nun zu experimentieren.
Q
Das heisst, im Moment überwiegt nach wie vor die Anwendung als internes Werkzeug und weniger die produkteseitige Automatisierung?
A
Die gibt es natürlich auch. Wir haben derzeit ein Experiment am Laufen, ein Wirtschafts-Audio-Briefing. Dabei werden mehrere publizierte Texte von einer KI zusammengefasst, dann von den Autoren geprüft und schliesslich von der KI vorgelesen und als Audio-Briefing einmal in der Woche publiziert. Das erlaubt uns die nötige Qualitätskontrolle und gleichzeitig die automatisierte Umwandlung von einem Medium ins andere. Die Kontrolle erfolgt dabei durch die Autorinnen und Autoren, weil sie den Inhalt am besten kennen. Für den Einzelnen bedeutet das einen gewissen Mehraufwand. Aber es macht uns als Medienhaus effizienter, wenn wir plötzlich mit vertretbarem Aufwand ein neues Produkt herstellen können.
Q
Es geht also nicht nur um die Effizienz bestehender Abläufe, sondern auch um die Erweiterung journalistischer Angebote?
A
Genau, mit KI sind wir in der Lage, Angebote zu entwickeln, für die uns bisher die Mittel und die Möglichkeiten gefehlt haben.
Q
Die Redaktionen sind seit Jahren enormen Veränderungen unterworfen. Gleichzeitig ist es nicht immer einfach, Abläufe und Routinen im journalistischen Alltag zu verändern. Was sind die Anforderungen an ein KI-Werkzeug, damit es Journalistinnen und Journalisten in ihrem Alltag auch wirklich einsetzen?
A
Nehmen wir ein konkretes Beispiel: Viele Journalistinnen und Journalisten sind beeindruckt von Notebook LM. Es handelt sich dabei um einen Rechercheassistenten, der hochgeladene Dokumente analysieren, zusammenfassen oder umwandeln kann. Entscheidend für die Akzeptanz ist, dass man als Journalist die Primärquellen selbst bestimmt und genau weiss, mit welchen Dokumenten die Maschine arbeitet — die inhaltliche Kontrolle bleibt so jederzeit beim Menschen.
Q
Es gibt eine verbreitete Angst, dass durch KI viele Arbeitsplätze verloren gehen. In der Vergangenheit waren bei Innovationsschritten gesamtwirtschaftlich jedoch meist nur Verschiebungen im Arbeitsmarkt zu verzeichnen — gewisse Jobs verschwinden, gleichzeitig entstehen neue Berufsfelder. Zeichnet sich jetzt schon ab, welche neuen Funktionen es innerhalb einer Redaktion geben wird?
A
Die Möglichkeit, mit minimalem Aufwand ganz neue Produkte oder Medienformate zu generieren, zwingt eine Redaktion zur Überlegung, welche Kernkompetenzen und Ressourcen sie wirklich braucht. Wie viele Personen sollten sich mit dem visuellen Auftritt befassen? Wie viele sollten Leitartikel schreiben? Wie werden wir künftig recherchieren? Was für Kompetenzen braucht eine Redaktion zum Beispiel im Bereich Video, im Korrektorat oder auch für die Themenauswahl? Es gibt in vielen Bereichen Arbeiten, die durch KI effizienter erledigt werden können — was Freiräume für journalistische Kernaufgaben schafft. Gleichzeitig werden neue Aufgaben entstehen. Jemand muss vielleicht kontrollieren, wie man Wörter korrekt phonetisch ausspricht oder es braucht Sounddesigner. Wir kennen die Antworten auf viele grundlegenden Fragen noch nicht.
Q
Der Anteil synthetischer Inhalte im Internet nimmt zu. Wie kann man sich als journalistisches Medium in dieser Flut überhaupt noch abheben? Braucht es eine fundamentale Neupositionierung oder sind es weiterhin die gleichen Qualitätskriterien, mit denen man sich auch in dieser neuen Welt behaupten kann?
A
Das Wertversprechen der NZZ hat sich in bald 250 Jahren nicht wesentlich verändert. Es geht um eine Einordnung der Weltlage aus liberaler Perspektive. Kürzlich konnte man in einer Studie lesen, dass online bereits mehr synthetische Inhalte als von Menschen generierte Inhalte zu finden sind. Das wird wohl bald auf 99 Prozent hochschnellen, einfach weil die Herstellung von Inhalten für KI so einfach ist. Das macht menschengemachte Inhalte aber nur noch wertvoller. Wir werden KI zwar als Werkzeug einsetzen, um neue Produkte herzustellen. Aber diese Produkte werden nie einfach automatisch ins Netz gestellt. Hinter allen Inhalten werden auch in Zukunft bei der NZZ Menschen stehen, die einen Blick auf die Welt haben, der hilft, die aktuellen Geschehnisse einzuordnen.
Q
Der Gegensatz lautet somit gar nicht Journalismus versus KI, denn im Journalismus wird KI zum Einsatz kommen. Entscheidend ist vielmehr die Frage, was automatisiert wird und was eben nicht. Ist es am Schluss die inhaltliche Auswahl und finale Qualitätskontrolle, die den Unterschied ausmacht?
A
Wir nutzen KI als Werkzeug zur Herstellung unserer Inhalte, und das werden wir wohl immer intensiver tun. Um das richtig zu tun, müssen wir unsere Daten, unsere Inhalte verstehen und kontrollieren. Gleichzeitig gilt: Jeder Inhalt beginnt und endet mit dem Menschen. Das hört sich banal an. Tatsächlich aber führt diese Einsicht zu fundamentalen Fragen. Die KI zwingt uns dazu, intensiv darüber nachzudenken, was die wahren journalistischen Kernkompetenzen sind. Eine dieser Kernkompetenzen besteht darin, zum richtigen Zeitpunkt die richtige Frage zu stellen. Und diese Frage anschaulich zu beantworten. Dafür kann man heutzutage ganz unterschiedliche Werkzeuge einsetzen: Das Telefon in die Hand nehmen, zum Beispiel, oder man kann googlen, rausgehen, mit Menschen sprechen, Dokumente suchen. Oder eine KI befragen.
Q
Der Nachrichtenkonsum via KI-Chatbots steigt. Was bedeutet dies für die Verbreitung von Medieninhalten? Wie stellt man als Medienmarke sicher, dass das eigene Angebot überhaupt noch relevant, visibel und nachgefragt wird?
A
Chatbots neigen dazu, Originalquellen unsichtbar zu machen. Deshalb ist eine strikte Kontrolle der eigenen Daten durch Paywalls und gezielte Lizenzvereinbarungen mit KI-Entwicklern unerlässlich, um die Monetarisierung der eigenen Rechercheleistung abzusichern. Gleichzeitig reicht reine Abschottung nicht aus. Um relevant zu bleiben, muss die Marke über das eigene News-Portal hinaus auf vielfältige Weise präsent sein: durch emotionale Formate wie Podcasts, auf News-Aggregatoren, aber auch durch physische Plakatwerbung oder Live-Veranstaltungen. Das Ziel ist, den Nutzer nicht nur über den Inhalt, sondern über das Qualitätsversprechen der Marke zu binden.
Q
Das heisst, Chatbots decken eben nicht sämtliche Informationsbedürfnisse der Nutzer ab und es wird weiterhin eine Nachfrage nach einem kuratierten Angebot geben?
A
Die klassische Kuration von Nachrichten wird durch KI-gestützte Personalisierung nicht ersetzt, sondern auf ein neues Level gehoben. Inhalte können nun passgenau und formatübergreifend auf die Bedürfnisse der Nutzer zugeschnitten werden. Handy-Apps wie Huxe zeigen bereits, wie durch Interaktion ein stetig relevanteres Informationsangebot entsteht, das selbst lokale Nischen bedient. Auch hier müssen Medienhäuser abwägen, ob und wie weit sie ihre exklusiven Inhalte für solche Drittplattformen öffnen wollen.
Q
Es scheint hier unterschiedliche Strategien zu geben. Es gibt Medien, die bei den KI-Chatbots unbedingt auftauchen wollen. Bringt das denn etwas, wenn die Nutzer nicht auf die Originalquellen klicken?
A
Wenn Nutzer nicht auf die Originalquelle klicken, bringt das aus meiner Sicht wenig. Bei der klassischen Google-Suche ist Sichtbarkeit gegeben: Man bleibt Quelle, hat einen Teaser, und erhält Traffic auf die eigenen Seiten. Bei KI-Chatbots funktioniert diese Logik nicht. Dort werden Inhalte und Einordnung direkt ausgespielt, ohne Rückführung zum eigenen Angebot. Es gibt zwar Kooperationen, bei denen Medienmarken sichtbar gemacht werden, das kann kurzfristig für den Markenauftritt helfen. Am Ende profitieren aber vor allem die Plattformen: Die Wertschöpfung und die Daten liegen bei Big Tech.
Q
Neben dem technischen Schutz der Daten gibt es auch eine Diskussion über eine faire Abgeltung und eine angemessene Regulierung. Auch sind diverse Rechtsverfahren hängig. Braucht es eine gesetzliche Anpassung zum Schutz der Medieninhalte?
A
Angesichts der regelmässigen Verletzung von Urheberrechten durch Big-Tech ist eine politische und rechtliche Weichenstellung unumgänglich. Der Verlegerverband unterstützt hierbei gezielte gesetzliche Initiativen, wie etwa die Motion von Ständerätin Petra Gössi, um eine faire Basis für moderne Lizenzierungsmodelle zu schaffen. Da grosse Sprachmodelle für aktuelle Informationen auf externe Quellen angewiesen sind und das immer sein werden, könnten technische Lösungen wie die Messung der Zugriffshäufigkeit oder der genutzten Daten-Bandbreite als Grundlage für eine angemessene finanzielle Abgeltung dienen. Letztlich ist ein Vergütungsmodell essenziell, um die Kosten für die Herstellung qualitativ hochwertiger journalistischer Inhalte auch im Zeitalter der Künstlichen Intelligenz zu refinanzieren.
Q
Du hast kürzlich in einem Leitartikel die Meinung vertreten, dass die Anwendung von KI eben nicht zu mehr Einheitsbrei führt, sondern die individuelle Analyse der Einzelnen schärfen kann. Das wäre ein positiver Einfluss auf die Gesellschaft und die Meinungsbildung. Auf der anderen Seite gibt es das Szenario der «Enshitification» mit dem qualitativen Verfall von Angeboten und Inhalten. Wie siehst Du persönlich die diesbezügliche Entwicklung?
A
KI ist letztlich ein Werkzeug. Und wie das bei Werkzeugen eben ist, hängt seine Wirkung von der jeweiligen Anwendung ab. Im Idealfall kann KI das kritische Denken schärfen. Aber wenn’s schief geht, droht eine rein passive Nutzung, und damit die intellektuelle Abstumpfung hin zum medialen Einheitsbrei. Die Technikgeschichte lehrt uns allerdings, dass selbst hochriskante Innovationen, wie etwa die Nukleartechnologie, nach verheerenden Anfängen durch Lernen und Regulierung in eine sichere, zivile Nutzung überführt werden konnten. Um sicherzustellen, dass KI primär als positiver Impuls für die Meinungsbildung funktioniert, spielt wohl das richtige Bildungssystem eine entscheidende Rolle. Wenn Gesellschaften und Schulen einen gesunden Umgang mit der Technologie pflegen und vermitteln, lernen junge Menschen, die Potenziale der KI zu beherrschen, ohne die Fähigkeit zur eigenständigen Reflexion zu verlieren.
Q
Und selbst wenn der Anteil an synthetischem Ramsch zunimmt, dann stärkt das zumindest die Position von hochwertigem Journalismus?
A
Davon bin ich überzeugt. Letztlich stärkt der technologische Wandel all jene Medienmarken, die auf Glaubwürdigkeit und menschliche Expertise gegenüber der blossen Quantität synthetischer Inhalte setzen.