Es gibt dieser Tage zwei Sorten von Medienmachern: diejenigen, die sich tagein, tagaus mit künstlicher Intelligenz beschäftigen und diejenigen, die das nicht tun. Zuweilen entsteht der Eindruck, dass die erste Gruppe vor Begeisterung kaum noch wahrnimmt, dass es die zweite überhaupt gibt. Es ist ein bisschen wie in den frühen Tagen des Online-Journalismus: Die einen vernetzen sich mit Gleichgesinnten, kommentieren dieselben Studien, treffen sich auf den immer gleichen Konferenzen, vergleichen ihre Tools. Die anderen versuchen, einfach ihren Job zu machen. Wie damals scheint in der Branche eine Art Bekenntniszwang zu herrschen: Entweder man schwärmt von den Möglichkeiten der KI, oder man recherchiert, wann sie denn nun die Menschheit auslöschen wird. Viele andere halten aber lieber die Klappe. Sie sorgen sich, als Innovationsfeinde zu gelten.
Dabei wäre gerade jetzt, wo die ersten KI-Tools ausgerollt werden, eine breite und vielschichtige Debatte wichtig. Denn es geht um praktisch alles: jeden einzelnen Job, den Wert der jeweiligen Marke, die Zukunft von Geschäftsmodellen, das Vertrauen in den Journalismus als Ganzen. Der Launch von ChatGPT im November 2022 hat ein Tor aufgemacht, hinter dem sich verschiedene Wege auftun. Jene first mover, die das Thema vorantreiben, sind gut beraten, jene außerhalb ihrer Bubble um kritische Fragen zu bitten – so, wie es der Herausgeber der New York Times, A.G. Sulzberger, in einem kürzlich veröffentlichten Interview empfiehlt: „Ich habe die Erkenntnis gewonnen, dass der Weg voran in jeglicher Phase gigantischer Transformation ist, Fragen zu stellen, die Antworten mit Skepsis zu betrachten und an keine Wunderwaffen zu glauben.“
Eine Kolumne kann das Für und Wider des Einsatzes generativer KI im Journalismus nicht erschöpfend behandeln. Aus der Fülle der Szenarien und Argumente sollen hier deshalb nur ein paar Themen angerissen werden, über die derzeit selten oder gar nicht gesprochen wird. Es geht sozusagen um die Black Box der Debatte.
Erstens: Alle reden über gefährdete Jobs, kaum jemand über Verantwortung und Haftung
Der Einsatz generativer KI in Redaktionen ist deshalb so riskant, weil sie streng genommen im Widerspruch zum Kern des Journalismus steht. Journalismus bedeutet Faktentreue und Genauigkeit; so definierte es der Ausschuss zu Qualitätsjournalismus des Europarats. Wer es pathetischer mag, spricht von Wahrheit. Große Sprachmodelle, wie sie der GenKI zugrunde liegen, berechnen aber lediglich Wahrscheinlichkeiten. Ihr Ziel ist es, sich den Fakten möglichst weit anzunähern und damit im Zweifel Wahrheit zu simulieren. Bestehen Lücken, halluzinieren sie. Einem Großteil der Nutzer ist dies mittlerweile bewusst. Dies bedeutet aber auch, dass Journalisten sämtliche Fakten überprüfen müssen, bevor sie bei mit KI ergänzten Texten oder Illustrationen auf den Sendeknopf drücken. Eine Recherche des britischen Mediendienstes Press Gazette beschreibt entsprechende Prozesse rund um ein neues Tool namens Gutenbot, mit dem die Verlagsgruppe Reach ihre Reichweite steigert. Dem Bericht zufolge ist der Produktionsdruck immens. Wer aber haftet bei Fehlern? Sind es die Hersteller der Tools, die Verlage, oder die Redakteure am Ende der Kette? Während zum Beispiel beim Einsatz selbstfahrender Autos Haftungsfragen im Kern der Debatte stehen, werden sie im Journalismus kaum thematisiert. Dies ist jedoch zwingend, sobald KI-Experimente für den täglichen Gebrauch skaliert werden. Die Glaubwürdigkeit ist das höchste Gut einer Medienmarke. Wer Gefahr läuft, sie zu ruinieren, sollte das Risiko kennen.
Zweitens: Es wird viel darüber gesprochen, was geht, aber wenig darüber, was das Publikum wirklich braucht
Diese Angebote berechtigen nicht zur Nutzung der Artikel in
Pressespiegeln (o. Ä.).
Klicke hier zum Erwerb von passenden Nutzungslizenzen.