Generative KI im Journalismus: Zwischenfazit

Seit ChatGPT Ende 2022 das Internet erobert hat, ist die Medienbranche am Hyperventilieren. Die grosse Reflexion mit Hoffnungen, Enttäuschungen und Mythen, die sich erstaunlich hartnäckig halten – inklusive Handlungsempfehlungen für 2025.

Eine Nahaufnahme einer Tastatur eines Commodore A1200
Photo von Dan Counsell / Unsplash

Die folgenden sechs Fakten, Beobachtungen und Thesen habe ich über die letzten paar Wochen niedergeschrieben. Ich habe mich immer wieder hingesetzt, von neuem begonnen und dann wieder längere Zeit nichts geschrieben. Dazwischen habe ich unzählige Artikel zum Thema gelesen und das abgelaufene Jahr reflektiert – mein erstes Jahr als selbstständiger Berater an der Schnittstelle von Journalismus und Technologie. Die Listen von Ole Reissmann und Mattia Peretti sowie zahlreiche LinkedIn-Posts und Unterhaltungen mit Kollegen wie Konrad Weber waren grossartige Inspiration. Danke! 

tl;dr: Es ist lobenswert, dass sich Medien im In- und Ausland proaktiv mit generativer KI auseinandersetzen. Ich beobachte jedoch, dass sie oft den falschen Fokus legen: auf das Automatisieren von vermeintlichen Routineaufgaben, die eigentlich keine sind, und für die KI-Modelle ohnehin nicht geeignet sind. Dabei lassen sie (zu) oft journalistische Vorsicht missen. Gleichzeitig fehlt eine ernsthafte Debatte über die Rolle von Big Tech und über zukunftsfähige Geschäftsmodelle, die durch KI vielleicht erst ermöglicht werden. Verlage müssen spätestens jetzt aus der Effizienzfalle rauskommen, mit echter Innovation beginnen und KI als das behandeln, was sie ist: eine Basistechnologie, die unseren Umgang mit Computern (erst) langfristig verändern wird.

Fakt: Sprachmodelle sind keine programmierbaren Datenbanken

Sprachmodelle wie GPT-4 oder Claude 3.5 Sonnet basieren auf Verfahren des statistischen Lernens. Jedes durch sie generierte Wort ist das Resultat einer Wahrscheinlichkeitsrechnung, gemischt mit einer Prise Zufall und einer Portion Voreingenommenheit. Die meisten Sprachmodelle scheitern auch heute noch an der Frage, ob die Zahl 9.9 oder 9.11 grösser ist. Warum? Weil sich diese Frage und die korrekte Antwort darauf nicht in den Trainingsdaten finden, die aus dem Internet zusammengeklau(b)t wurden. Wenn es beim Kollegen am Nebentisch doch einmal funktioniert, dann ist das: Zufall. Auch wenn viele etwas anderes prophezeit (oder erhofft) haben, hat sich daran seit dem Launch von ChatGPT nichts geändert. Weder mit GPT-4 oder 4o oder o1 und o1 Pro. Im Gegenteil: Mittlerweile wollen uns die Sprachmodelle sogar davon überzeugen, dass wir es sind, die eigentlich falsch liegen. Vielleicht wird es ja mit GPT-5 besser?

In diesem Sinne ist auch Prompt Engineering überbewertet. Langsam ebbt die Flut an Prompt-Tipps und -Strategien zwar gefühlt ab. Aber der Glaube, dass man ein Modell nur genug lange mit den richtigen Anweisungen foltern muss, bis es die Wahrheit ausspuckt, hält sich hartnäckig (in der letzten Ausgabe der «Journalisten-Werkstatt» wird gerade wieder von der «Kraft der klaren Anweisung» schwadroniert; vom ultimativen Prompt, der der KI «exakt vorschreibe», worauf zu achten sei). Anders als bei Datenbank-Abfragen geht es genau nicht darum, eine Anweisung möglichst präzise und korrekt zu formulieren, damit sie besser «verstanden» wird. Das ist ein Trugschluss, der wahrscheinlich aus dem herkömmlichen Umgang mit Maschinen entstanden ist. 

Der beste Beweis dafür ist dieses nervige ß, das wir Schweizer nicht verwenden, das Sprachmodelle aber leider irgendwo im Ausland aufgeschnappt haben. Wie viel Zeit ging in hiesigen Redaktionen wohl schon drauf, das mit dem «richtigen» Prompt wegzukriegen? Aber es wird nicht – oder zumindest nicht zuverlässig – funktionieren, egal wie deutlich, drohend oder flehend die Anweisung ist. Schlicht und einfach, weil das ß in den Trainingsdaten häufiger vorkommt als das ss. 

Was heisst das für den Journalismus? Menschliche Recherche ist und bleibt unersetzbar. Sprachmodelle sind weder Archive noch Suchmaschinen (wobei sie letztere durchaus besser und intuitiver machen können, wie Tools wie Perplexity demonstrieren). Werden sie als solche eingesetzt, dann ist das im Grunde fahrlässig. Das mag für viele, die diesen Beitrag lesen, alter Kaffee sein. Aber ist es das auch für die Kolleginnen und Kollegen in der Lokalredaktion, die bisher nur sporadisch mit KI in Kontakt gekommen sind? Die Rückmeldungen, die ich teils an Schulungen und Workshops erhalte, lehren mich etwas anderes. Chatbots mit ihren simplen und intuitiven Benutzerschnittstellen werden als Wundermaschinen oder Orakel wahrgenommen, die alles wissen (sollten). Behaupten sie wiederholt etwas Falsches, wird ihre «Intelligenz» schnell angezweifelt, und das eigentlich mächtige Tool vorschnell in die Mottenkiste verstaut. Dabei hat man doch so viel Zeit in einen guten Prompt investiert!

Konkrete Schritte im 2025: Prompt-Engineering-Schulungen kann man sich sparen. Gewisse Techniken wie Prompt Chaining und Few-Shot-Prompting zu kennen, kann sicher nicht schaden. Nie zu spät ist es für eine No-Bullshit-Grundausbildung zur KI und zu deren statistischer Natur. Damit schafft man eine realistische Erwartungshaltung und animiert zu einem verantwortungsvollen Umgang. Und natürlich sollte man in so einer Schulung auch auf das Potenzial von generativer KI verweisen (das es durchaus gibt, dazu später mehr).

Fakt: Sprachmodelle können nicht über Relevanz entscheiden

Wie soll eine Maschine wissen, was in der über 100-seitigen Rechnungsstellung 2024 der Gemeinde Oberlunkhofen wichtig ist – oder anders gesagt: Was in dieser journalistisch relevant und möglicherweise ein toller Scoop ist? Natürlich kann uns die Maschine zentrale Abschnitte kürzen, paraphrasieren und auflisten – und das ist eine bemerkenswerte Leistung. Aber kann sie auch die Nuancen und die Botschaften zwischen den Zeilen lesen? Oder das Entdecken, was eben genau auf mysteriöse Weise fehlt? 

Aus dem Fakt, dass sich Sprachmodelle statistischer Verfahren bedienen, folgt auch, dass sie kein Konzept von Relevanz und Wichtigkeit haben. Wahrscheinlich «wissen» sie, dass wichtige Dinge oft zu Beginn erwähnt werden, oder dass wichtige Dinge in der Regel ein paar Mal wiederholt werden. Aber es fehlt ihnen der Kontext, die Vorgeschichte und der Zweck eines Schriftstücks. 

Was heisst das für den Journalismus? Zusammenfassungen werden oft als Killer-Applikation von generativer KI im Journalismus genannt. Schnell mal ein paar grosse PDFs ins ChatGPT hochgeladen – schwupp – und man hat sich das mühsame Durchlesen erspart. Kann man machen. Einfach mit der Gefahr, dass man wirklich wichtige Dinge verpasst, oder noch schlimmer: Dass einem eine Halluzination untergejubelt wird. Für das braucht es Menschen, auch in Zukunft: Journalisten und Rechercheurinnen, die über ein Dossierwissen verfügen. Eines, das ihnen hilft, zur richtigen Zeit am richtigen Ort die richtigen Fragen zu stellen. 

Konkrete Schritte im 2025: Im Recherche-Bereich kann es sich lohnen, spezialisierte Applikationen wie NotebookLM auszuprobieren. Dort können Dokumente hochgeladen und iterativ mit Fragen gelöchert werden. Man sieht dort auch jeweils die als relevant betrachteten Abschnitte im Originaltext, was bei der Verifikation helfen kann. Ich rate davon ab, einfach ein Dokument in einen Standard-Chatbot hochzuladen und zusammenfassen zu lassen. Wer weitergehen will, kann eigene RAGs bauen. Dazu gibt es neben den einschlägigen Cloud-Diensten mittlerweile auch spannende Open-Source-Projekte. Halluzinationen kann man damit auch nicht den Garaus machen, aber man hat Tools, die einen bei der Kontrolle unterstützen.

Fakt: Sprachmodelle haben ein schlechtes Kurzzeitgedächtnis

Überhaupt, Halluzinationen. Die Erbsünde des KI-Zeitalters. Dass ein KI-Modell nicht als Frage-Antwort-Wikipedia herhalten kann, mag nun deutlich geworden sein. Dass aber ein klar vorgegebener, freilich kurzer Ausgangstext falsch paraphrasiert oder zusammengefasst wird, leuchtet vielen weniger ein. Wieso schleichen sich sogar dort Halluzinationen ein – teils laut in Form von inhaltlichen Absurditäten, teils leise als sprachliche Unschärfen, die erst auf den zweiten Blick auffallen? Dabei wurde doch deutlich gepromptet, DASS SICH DIE KI UNBEDINGT AN DIE FAKTEN HALTEN SOLL!!! 

Nun: Ein Sprachmodell kann bei einer solchen Aufgabe nicht scharf zwischen seinem Trainingswissen (nennen wir es das Langzeitgedächtnis) und den vorliegenden Fakten (nennen wir es das Kurzzeitgedächtnis) trennen. Nochmals: Jedes Wort ist das Resultat eines statistischen Zufallsprozesses, bei dem nicht nur der aktuelle Kontext (bspw. die zu paraphrasierende Polizeimeldung), sondern auch das ominöse Grundrauschen an Trainingsdaten eine gewichtige Rolle spielt. 

Würde man dem Modell bei einer solchen Aufgabe verbieten, auf sein Langzeitgedächtnis zurückzugreifen, bekäme man wohl in etwa das Gleiche, wie wenn man ein einjähriges Kind darum bitten würde, aus einem Buch vorzulesen. Nur dass ein Kind das ein paar Jahre später durchaus kann, ganz ohne zu halluzinieren. Diese Fähigkeit, Fakten von Wahrscheinlichkeiten zu trennen oder gezielt Kurz- oder Langzeitgedächtnis abzurufen, ist eine zutiefst menschliche Eigenschaft. Diese wird uns noch lange – wenn nicht für immer – von Maschinen unterscheiden. Zumindest so lange, bis wir die statistische Natur von KI hinter uns lassen. 

Was heisst das für den Journalismus? Zusammenfassungen von Ausgangstexten (das heisst, aus dem Kurzzeitgedächtnis), sei es in Form von Teasern oder Bullet-Points,  gehören zu den beliebtesten und häufigsten Anwendungen von KI im Journalismus. Lange dachte ich selber, dass der Einsatz hier sinnvoll sei. Das kann er auch sein, wenn die Zusammenfassungen lediglich als Inspiration angeboten und überdeutlich als Vorschlag gekennzeichnet werden. Deswegen sollte auch das Design einer solchen Anwendung beim gewissenhaften Umgang unterstützen. Beispielsweise, indem die KI-Vorschläge nicht automatisch in die entsprechenden Felder eingefüllt werden, sondern die Nutzenden noch eine Übernahme bestätigen müssen. Oder sie einfach abschauen und Teile nach Gutdünken übernehmen können. So fanden wir bei einer Evaluation eines Teaser-Generator-Tools bei Tamedia heraus, dass – auch dank des Designs des Tools – nur ein kleiner Prozentsatz direkt übernommen wurde. Trotzdem wurde das Tool sehr häufig verwendet.

Heute bin ich bezüglich Zusammenfassungen skeptischer. Zu oft habe ich beispielsweise Bullet-Points gesehen, die ohne Gewichtung (merke: KI kann keine Relevanz) aufzählen, was im Artikel erwähnt wird, oder noch schlimmer: die Sätze oder Wörter enthielten, die den Sinn verdrehten. Meistens wurden diese Bullet-Points dann ein paar Stunden später entfernt oder korrigiert – wohl dann, als ein Mensch sich doch noch die Mühe machte, sie gewissenhaft durchzulesen. 

Beispielsweise stand bei einem Artikel über eine HBO-Dokumentation zum mutmasslichen Bitcoin-Erfinder, dass derjenige die «Anschuldigungen» bestreite. Dieses Wort ergab an der Stelle einfach keinen Sinn. Am nächsten Tag wurden aus den «Anschuldigungen» dann «Recherchen». Vielleicht, als ein Kollege am nächsten Tag den Artikel nochmals durchlas – oder nachdem sich eine Leserin beschwert hatte.

Diese Erfahrungen aus der Praxis bestätigen, dass KI-Modelle oft dort scheitern, wo ein Mensch selten einen Fehler machen würde: Beim Abrufen des Kurzzeitgedächtnisses, beispielsweise beim Wiedergeben eines gerade gelesenen Textes.

Dass solche maschinellen Fehler unentdeckt bleiben, ist menschlich absolut nachvollziehbar. Und Fehler passieren auch ohne KI. Ich wage aber zu behaupten, dass unüberlegter KI-Einsatz die Chance genau solcher sprachlicher Ungenauigkeiten erhöht. Wenn die KI fünf Mal hintereinander ein perfektes Resultat ausspuckt – kontrolliere ich dann beim sechsten Mal noch jedes einzelne Wort? 

Konkrete Schritte im 2025: Wer in der Redaktion unbedingt Zusammenfassungs-Anwendungen einsetzen möchte, sollte das überlegt tun: Zeit in eine gute User Experience investieren und genau testen und beobachten, wie die Zusammenfassungen verwendet werden. Die besten und nachdrücklichsten KI-Leitlinien helfen nichts, wenn im Stress die Zeit (und Lust) fehlt, die «eigentlich» zuverlässigen KI-Outputs zu kontrollieren. Man sollte keine Zeit mehr mit Prompts vergeuden, die dem Modell sein Trainingswissen oder Langzeitgedächtnis austreiben wollen – vergebene Liebesmüh. Und man sollte sich die berechtigte Frage stellen: Lohnt sich das eigentlich? Was mich zum nächsten Punkt führt.

Beobachtung: Zu viel Fokus auf (vermeintlichen) Effizienzgewinn, zu wenig Vorsicht

Wir wissen jetzt: Sprachmodelle sind keine programmierbaren Datenbanken, können nicht über Relevanz entscheiden und halten sich nicht immer an die Fakten. Ihr Output ist weder vorhersehbar noch zuverlässig mit den richtigen Prompts zu «zähmen». Dann frage ich mich aber doch, wieso sich das Generieren von Text zu publizistischen Zwecken immer noch so hoher Beliebtheit erfreut. 

Eine typische Anwendung ist die folgende: Nimm diesen Text der Konkurrenz (oder der Nachrichtenagentur) und schreibe ihn in unserem Stil um – die Rolls-Royce-Variante nutzt dazu noch ein fine-getuntes Modell mit dem eigenen Archiv als Trainingsdatensatz. Tönt erstmal gut: Man entlastet die Mitarbeitenden von einer eher langweiligen und undankbaren Aufgabe und rankt wegen weniger Duplikate sogar bei Google noch ein bisschen besser. Wenn es denn funktionieren würde. Tatsächlich ist so ein Einsatz gefährlich, wie verschiedene Negativ-Beispiele zeigen.

Das Restrisiko, dass sich eine Halluzination «einschleicht», lässt sich nicht eliminieren. «Dafür haben wir ja den Mensch, der die KI kontrolliert», beruhigen sich viele. Aber die Chance, dass ein Fehler unentdeckt bleibt, ist auch nicht zu unterschätzen. Vor allem bei der heiklen Kombination aus einer komplexen Ausgangsrecherche und einem KI-Kontrolleur, der diese Recherche nicht kennt oder verstanden hat, selber im Stress ist und eigentlich lieber etwas anderes machen würde. Hier vielleicht genau so passiert. Und es gibt noch andere Beispiele für solche Experimente, die schief gingen. 

Wenn man diese unabdingbare Kontrolle wirklich gewissenhaft durchführt, fällt der Effizienzgewinn wahrscheinlich bescheiden aus. Dafür muss man nämlich den Originaltext gelesen, verstanden und allenfalls sogar nachrecherchiert haben. Und dann muss man den KI-generierten Text Wort für Wort prüfen. Rechnet man dann noch den Implementierungsaufwand dazu – der dank gut dokumentierten Schnittstellen von OpenAI und Konsorten zweifellos verlockend klein ist –, resultiert unter dem Strich wohl sogar ein Zeit- und Geldverlust.

So verhält es sich mit vielen KI-Anwendungen, die bestehende Texte zusammenfassen, umschrieben oder kürzen. Kontrolle ist unabdingbar, und vorsichtige Kontrolle kostet Zeit. Lohnt sich das, wenn man dabei auch noch ein Zusatzrisiko eingeht, Fehler zu publizieren? 

Oft wird hier als Gegenargument eingeworfen: Menschen machen doch auch Fehler! Natürlich, aber bei der KI ist die Fallhöhe ungleich höher. Eine Untersuchung der Universität Zürich zeigte unlängst, dass das Schweizer Publikum den Medienschaffenden schon jetzt nicht zutraut, mit KI vertrauensvoll umzugehen. Ich finde das verheerend. In Deutschland ist die Stimmung ähnlich, wie die ZMG-Bevölkerungsumfrage 2023 zeigte.  Jeder noch so kleine Fauxpas verstärkt hier das Bild der auf Effizienz getrimmten Medienindustrie, die es mit der Wahrheit nicht mehr so genau nimmt. Das gilt es unbedingt zu vermeiden, will man – gerade wegen der Flut von KI-Unsinn – auch künftig mit Glaubwürdigkeit Geld verdienen. 

Konkrete Schritte im 2025: Redaktionen sollten Text-Assistenten höchstens durch Autorinnen und Autoren einsetzen lassen, die den Ausgangstext und die Materie kennen. Dabei sollten sie nur Anwendungen einsetzen, die kurze, gut kontrollierbare Outputs generieren. Die Kürzung von Texten (beispielsweise für das Umschreiben von Online zu Print) fällt beispielsweise nicht darunter und ist eigentlich fahrlässig. Denn unterlassene Fakten und Nuancen sind noch schwerer zu erkennen als absurde Halluzinationen und erfundene Zitate.

Sinnvoller sind Assistenten und Prompts, die ein erstes Feedback zu einem Text geben. Könnten die Sätze einfacher geschrieben werden? Gibt es gröbere grammatikalische oder orthographische Schnitzer? Tools wie die Wolf-Schneider-KI der Reporterfabrik oder so was Banales wie languagetool.org halte ich für sinnvoll. Sie ersetzen keine Textchefin, aber können 80 Prozent der mühsamen Redigierarbeit abnehmen, ohne den Charakter eines Texts zu verunstalten. 

Zusammengefasst: Redaktionen und KI-Teams sollten sich gut überlegen, ob dieses ganze Automatisieren von Textarbeit, namentlich von vermeintlichen «Routineaufgaben», überhaupt zielführend ist, wirtschaftlich was bringt und nicht einfach das Risiko eines peinlichen Fehlers erhöht. 

Redaktionen, die das jetzt tun, würdigen vielleicht, dass sie dank dieser Experimentierphase einiges über die Integration von KI-Diensten und die eigenen Prozesse gelernt haben – aber sie sich jetzt besser schnell anderen Einsatzgebieten zuwenden sollten. 

Das soll übrigens überhaupt keine Lanze gegen Automation im Journalismus sein (für das Buch «Handbuch Daten und KI im Journalismus» durfte ich letztes Jahr ein ganzes Kapitel dazu beisteuern). Im Gegenteil: Da gibt es noch viel zu holen. Auch heute noch werden viele frustrierende und repetitive Arbeiten von Menschen erledigt, obwohl Maschinen sie bereits seit geraumer Zeit schneller und fehlerfreier erledigen könnten. Und zwar mit simplen Prozess-Optimierungen und bewussteren Technologie-Entscheidungen, die ganz ohne generative KI auskommen. Schade natürlich, wenn längst fällige Digitalisierungs- und Automatisierungsprojekte wegen KI-Experimenten mit ungewissem Ausgang hinten angestellt werden. 

Beobachtung: Zu wenig Fokus auf Produktentwicklung und KI-Ökosystem

Ja, mit generativer KI lässt sich ein Autorentext in zehn verschiedene Social-Media-Ausspielkanäle giessen – mit Minimalaufwand. Auch wenn dies einwandfrei und fehlerfrei funktionieren würde (was es nicht tut): Ein neues Produkt hat man damit noch nicht erschaffen, den Ausweg aus der wirtschaftlichen Misere noch nicht gefunden. Und bis jetzt sind mir nur sehr wenige wirklich innovative und geldbringende Einsätze von KI im Journalismus über den Weg gelaufen. 

Die vielzitierte Disruption scheint woanders zu passieren: bei Big Tech und den VC-gestützten Startups, die aktuell alles daran setzen, das KI-Rennen zu gewinnen. Natürlich ohne viel Rücksicht auf Verluste. Ein Beispiel davon ist das eingangs erwähnte Perplexity oder die allmächtige Google- oder Bing-Suche, die immer mehr zum generativen One-Stop-Shop wird. Für die Nutzerinnen und Nutzer unglaublich bequem, für Blogger und Journalistinnen und vielleicht auch für das Internet, wie wir es kennen und lieben, ein möglicher Todesstoss

Nur wenige, grosse Häuser (Axel Springer beispielsweise oder AP) haben in den letzten zwei Jahren Deals mit KI-Anbietern abgeschlossen, um diese Entwicklung irgendwie zu monetarisieren. Das bringt aus gesellschaftlicher Sicht unerwünschte Nebeneffekte mit sich. Ob es sich wenigstens finanziell lohnt, bleibt unklar. Andere gehen in den offenen Gegenangriff, mit ebenfalls ungewissem Ausgang.

Aus der Schweiz ist mir kein Beispiel einer solchen Zusammenarbeit bekannt. Auch nicht zwischen den Verlagen, die im Einzelnen nie die Ressourcen für wirklich bahnbrechende KI-Projekte stemmen könnten. Der Verlegerverband beschränkt sich weiterhin vor allem darauf, die SRG als unfaire Konkurrenz darzustellen. Diese wiederum könnte eine führende Rolle einnehmen und Private dazu einladen, von ihren KI-Experimenten im Audio- und Videobereich zu lernen. Dass sie es tut, wäre mir neu.

Gleichzeitig wurde es bisher verpasst, namhafte Initiativen auf die Beine zu stellen, um sich unabhängiger von Big Tech zu machen. Resultate aus Kooperationen zwischen den hiesigen Universitäten und Verlagen lassen auf sich warten. Wo bleibt die Schweizer Medien-KI, trainiert mit den Zeitungsarchiven der letzten 100 Jahre? So etwas könnte durch das Media Technology Center der ETH Zürich auf die Beine gestellt werden – doch auf der Webseite stammt die letzte News vom März 2024 (nämlich der Jahresbericht 2023). Vorbild könnte die europäische OpenGPT-X-Initiative sein, wo der Westdeutsche Rundfunk als Partner mitmischt

In der Praxis gibt es nur wenige KI-ermöglichte Angebote, die ich als innovativ und mutig bezeichnen würde. Eines davon ist «Fragen Sie ZEIT ONLINE» von der gleichnamigen Publikation. Da kann man der KI eine Frage stellen und sie antwortet basierend auf Material der letzten 30 Tage (RAG-Ansatz). Manchmal klappt das, manchmal nicht – die ad hoc generierten KI-Outputs werden nicht von Menschen kontrolliert, dies steht aber auch überdeutlich. AskFT ist ein weiteres Projekt der Financial Times, das in eine ähnliche Richtung geht. Beide Angebote sind der zahlenden Kundschaft vorbehalten. 

Weitere Beispiele muss man suchen gehen. Personalisierte Produkte, die seit Jahren als Mega-Trend beschrieben werden und durch generative KI den nötigen technologischen Schub bekommen könnten, habe ich zumindest von etablierten Verlagen noch nicht gesehen. In der Branche scheint sich jedoch durchaus die Gewissheit (und Angst) breit zu machen, dass Userinnen und User Medien in ein paar Jahren ganz anders konsumieren könnten: nämlich über KI-Assistenten, die ihnen News, Analysen und Meinungen je nach gewünschtem Stil und Länge wiederkäuen. 

Die Frage, ob man in einer solchen Welt reiner Content Producer sein oder selber Assistenten (mit-)anbieten will, wird noch nicht wirklich debattiert. Dabei wäre es an der Zeit. Unsere Branche braucht hier dringend mutige Akteure, die Dinge ausprobieren, Kooperationen eingehen und von ihren Misserfolgen und Erfolgen berichten. Dies, bevor wir von einer weiteren disruptiven Produkte-Welle aus Richtung Silicon Valley überrollt werden und am Ende – wieder – teuer dafür bezahlen (Smartphones und soziale Medien lassen grüssen). 

Konkrete Schritte im 2025: Die Zeit, die frei wird, wenn man nutzlose Textautomatisierungs-Experimente hinter sich lässt, sollte man für die Entwicklung einer Strategie für die KI-Welt nutzen. Wie will man in einer solchen Welt Geld verdienen? Für wen schreibt man – für Maschinen oder für Menschen? Lohnt es sich, mit Big Tech anzubandeln? Kann der Weg über nationale oder internationale Kooperationen ein gangbarer sein? Diese Reflexion und der Austausch mit anderen kostet viel Zeit und kann manchmal frustrierend sein, aber im Alleingang haben wir keine Chance. 

Generative KI ist eine Basistechnologie

Stellen Sie sich vor, Sie arbeiten in den 80er-Jahren auf einer mittelgrossen Redaktion. Eines Morgens kommen Sie als Erste*r ins Büro. Dann trifft Sie der Schlag – die Akten, die Sie sich unter den Arm geklemmt haben, fallen auf den Boden, und die Kaffeetasse in der anderen Hand entleert sich darüber.

Auf jedem einzelnen Schreibtisch steht ein viereckiger Kasten, der blaue Cursor blinkt auf dem schwarzen Bildschirm. Ein leises Summen erfüllt den Raum. Jemand hat über Nacht das Computerzeitalter ausgerufen!

Realistisches Szenario? Nein. Computer, wie auch Schreibmaschinen, das Internet und andere Technologien wurden nicht mal schnell eingeführt, sondern fanden erst langsam ihren Weg in die Redaktionsstuben. Meist zuerst verwendet von Enthusiastinnen und «Early Adopters», die zudem oft als Spinner abgetan wurden («dieses Internet verschwindet dann schon wieder»). Journalistinnen und Journalisten – wohl Berufskrankheit – sind allem Neuem ohnehin schon immer eher skeptisch gegenübergestanden. 

Mit generativer KI verhält es sich ähnlich. Klar gehört der Launch von ChatGPT zu den Erfolgreichsten aller Zeiten. Noch nie hat eine Plattform in so kurzer Zeit so viele Leute erreicht. Andererseits ist vieles davon Spielerei, und die Frage bleibt offen, ob in der (oft falschen) Verwendung eines Chatbots die wahre Kraft von generativer KI liegt.

Ich sehe den langfristig grössten Nutzen in der unglaublichen Übersetzungsleistung dieser Sprachmodelle. Die wortwörtliche Übersetzung zwischen zwei (menschlichen) Sprachen oder zwischen gesprochener und geschriebener Sprache funktioniert bereits nahezu perfekt. Viele Publikationen nutzen das heute auf selbstverständliche Weise, beispielsweise zur automatischen Transkription oder für Vorlese-Funktionen. 

Der eigentliche Quantensprung liegt aber in der Übersetzung zwischen menschlichen Anweisungen und Befehlen, die eine Maschine versteht. Jahrzehntelang blieb die Kontrolle der Maschine den Programmierern und Ingenieurinnen vorbehalten. Das ändert sich gerade radikal. Mit Chatbots an meiner Seite kann ich mir in kürzester Zeit Tools zu Nutze machen, die vorher nur den Redaktions-Nerds und den Datenjournalistinnen vorbehalten waren: Terminals, Spreadsheets, Analyse-Scripts. Immer mehr werden KI-Funktionen auch direkt in bestehende Produkte eingebaut. Vorbei die Zeit, wo man sich mit unzähligen Excel-Formel herumschlagen musste – heute reicht ein Prompt in Umgangssprache

Fotos zusammenfügen, PDFs in Einzelseiten aufteilen, massenhaft Dateien umbenennen, Tabellen aus PDFs extrahieren: Für alle diese mühsamen Aufgaben verwende ich heute einen hastig geschriebenen und denkbar schlecht «engineerten» Prompt à la: “sag mir, wie ihch dieses und jenes automatisieren kann, ich bin auf linux und habe ein terminal”, und ich habe in der Regel innert fünf Minuten eine Lösung für ein Problem. Zuvor musste ich dafür zuerst eine halbe Stunde googlen und schlussendlich ging dann doch ein halber Tag drauf. Bei komplexeren Programmieraufgaben schätze ich meinen Produktivitätsgewinn überdies deutlich höher ein als die vielzitierten 30-50 Prozent.

Mit ein bisschen generativer KI kann jede und jeder, die Datenjournalismus-Luft schnuppern möchte oder schlicht und einfach keine Lust dazu hat, eine automatisierbare Aufgabe von Hand zu erledigen, ein Shell-, R- oder Python-Script bauen. Und sich dann erklären lassen, wie dieses nun ausgeführt werden kann. Das war vor ein paar Jahren noch völlig undenkbar. Was es dafür braucht, ist kein Hintergrundwissen über Programmierung oder Computer, sondern: Neugier und ein bisschen Hartnäckigkeit. Eigentlich eine Grundvoraussetzung für eine erfolgreiche Karriere im Journalismus, nicht?

Gleichzeitig können durch stets mächtigere Programmier-Agenten (die Kollege Lorenz Matzat hier untersucht hat) viel schneller komplett funktionale Prototypen und einfache News-Anwendungen gebaut werden, auch durch absolute Programmierlaien. 

Und zu guter Letzt werden auch Maschinen und Software-Systeme immer einfacher untereinander kommunizieren können. Modelle von Anbietern wie OpenAI und Anthropic bieten heute schon Funktionen, mit denen das Integrieren von unterschiedlichen Schnittstellen zum Kinderspiel wird. 

Man kann hier einwerfen: Halt, das sind alles Nischenanwendungen, wir machen bei uns ja ohnehin keinen Datenjournalismus und für die Produktentwicklung haben wir eine externe Agentur. Das mag sein, und zu Beginn werden es vor allem die Nerds wie ich sein, die am stärksten von dieser Zeitenwende profitieren. 

Längerfristig wird die Fähigkeit, menschliche Anweisungen zu verstehen und zu interpretieren, unseren Umgang mit Computern völlig verändern. Das heisst weder, dass professionelle Softwareentwicklung überflüssig wird, noch dass journalistische Arbeit irgendwie automatisiert wird. Der Computer wird aber noch viel mehr unser verlängerter Arm für alle Aufgaben, die in irgendeiner Art und Weise abdelegiert werden können. Dank generativer KI eröffnet sich hier eine Welt für die überwiegende Mehrheit der Bevölkerung, die keinen Uni-Abschluss in Informatik oder ein Online-Training in Python abgeschlossen hat. 

Dieser Prozess, dieses Umdenken, das Sich-Getrauen und das Realisieren, dass man selber plötzlich die Mittel in der Hand hat, um die Maschine zu zähmen: das wird dauern. Mindestens so lange, wie es dauerte, bis auf jedem Bürotisch ein Computer stand. 

Konkrete Schritte im 2025: Vom veränderten Umgang mit Computern werden Medienverlage genauso profitieren wie auch Schaden nehmen können. Wenn sie profitieren und sich einen kompetitiven Vorteil verschaffen wollen, tun sie gut daran, lieber heute als morgen in ihre Mitarbeitenden zu investieren.

Verlage, die generative KI als Steigbügelhalter zu einem neuen Computerzeitalter verstehen, haben begriffen, dass der Schlüssel dazu beim Menschen liegt. Sie schulen ihre Mitarbeitenden regelmässig, erzeugen bei ihnen realistische Erwartungen, nehmen ihre Vorbehalte ernst, animieren sie zum Ausprobieren und gehen zusammen auf die Suche nach Anwendungen, wo KI auch denen helfen kann, die vom Gedanken an Excel Herzrasen kriegen. 

Und sie haben vor allem eines: Geduld. Und das Vertrauen darauf, dass es manchmal etwas länger dauert, bis sich eine Technologie etabliert – auch wenn die Schlangenölverkäufer und Big-Tech-Turbos jeden Monat eine neue Disruption ausrufen. 

Danke an dieser Stelle für Ihre Geduld, Sie haben das Ende erreicht.

Werbeblock zum Schluss: Ich bin selbstständiger Berater und unterstütze (Medien-)Unternehmen beim Einsatz von Technologie – mit oder ohne KI. Ich gebe Workshops und Schulungen und habe durch meine langjährige handwerkliche Erfahrung im Journalismus viel Glaubwürdigkeit bei redaktionellen Kolleginnen und Kollegen. 
Falls Sie sich nun fragen, ob Sie punkto Automation und KI auf dem richtigen Pfad sind, oder ob Ihre Mitarbeitenden genug Wissen und Werkzeuge haben, um mit der Technologie verantwortungsvoll umzugehen: melden Sie sich unverbindlich, ich stehe Ihnen gerne zur Verfügung.