Wie weit dürfen Journalisten KI nutzen? – Ist Transparenz kontraproduktiv? Das „Dilemma der Offenlegung“ in der Nachrichtenwelt des KI-Zeitalters

Wie weit dürfen Journalisten KI nutzen? – Ist Transparenz kontraproduktiv? Das „Dilemma der Offenlegung“ in der Nachrichtenwelt des KI-Zeitalters

AI ist zum „unsichtbaren Co-Editor“ in den Redaktionen geworden. Die Transkription von Interviewnotizen, die Organisation und Zusammenfassung umfangreicher Dokumente, das Erstellen von Schlagzeilenentwürfen, die Unterstützung bei Bildern... Prozesse, die früher viel Zeit und Personal erforderten, können nun in wenigen Minuten erledigt werden. Für die finanziell angeschlagene Nachrichtenbranche ist AI ein attraktives Mittel, um „Kosten zu senken und die Geschwindigkeit zu erhöhen“. Doch diese Bequemlichkeit macht gleichzeitig die „Verantwortungslage“ unklar und erschüttert das Vertrauen.


Diese Spannung ist schließlich als „Streitpunkt zwischen Arbeitgebern und Arbeitnehmern“ in den Vordergrund getreten. Die Journalisten von ProPublica, bekannt für ihre unabhängigen investigativen Berichte, haben in Verhandlungen über den Umgang mit AI eine starke Haltung eingenommen, und der Einsatz von AI wird zu einem zentralen Thema in Arbeitskonflikten der Nachrichtenbranche.



1) Was derzeit vor Ort passiert: AI ist „nützlich“ – aber Unfälle nehmen zu

Der Grund, warum die Praxis nicht auf AI verzichten kann, ist klar. Bei datenorientierten Recherchen vereinfacht AI komplexe Aufgaben und spart Zeit. Die Transkription von Audio ist bereits automatisiert, und auch Suchdienste integrieren zunehmend AI-gestützte Zusammenfassungen.


Auf der anderen Seite treten auch „Unfälle“ auf, die durch die hastige Einführung verursacht wurden. Fälle, in denen AI-Zusammenfassungen korrigiert werden müssen, Beiträge unter falschen Autorennamen veröffentlicht werden oder generierte Inhalte Fakten erfinden. Ein symbolischer Fall war, als Ars Technica einen Artikel veröffentlichte, der ein „erfundenes Zitat“ enthielt, das von einem AI-Tool generiert wurde, und später zurückgezogen und entschuldigt wurde. Ein klassisches Beispiel für die Schwäche von AI (glaubwürdig klingende Lügen zu mischen), das von einem etablierten Tech-Medium selbst erlebt wurde.


Das bedeutet, AI kann sowohl ein „Engel der Effizienz“ als auch ein „Dämon der Vertrauenszerstörung“ sein. Das Problem liegt darin, dass Nachrichtenorganisationen noch nicht entschieden haben, „wo die Leitplanken gesetzt werden sollen“, um diese Dualität zu berücksichtigen.



2) Warum es Streit gibt: Die Punkte der AI-Governance betreffen mehr „Befugnisse“ als „Texte“

Den Streitpunkt auf „ob AI Artikel schreiben soll oder nicht“ zu reduzieren, wäre ein Missverständnis. Der tatsächliche Streit ist viel breiter.

  • Offenlegung (Disclosure): Wie man den Lesern die Fakten über die Nutzung von AI vermittelt

  • Menschliche Beteiligung (Human-in-the-loop): In welchen Prozessen menschliches Urteil unerlässlich ist

  • Beschäftigung und Fähigkeiten (Jobs): Wer wird geschützt und wer wird umgeschult, wenn AI Arbeitsplätze ersetzt

  • Verantwortlichkeit (Accountability): Wer trägt die Verantwortung bei Fehlern – der Journalist, der Redakteur oder der Tool-Einführer


Die ProPublica-Seite (Management) vertritt die Ansicht, dass es riskant ist, den Betrieb einer sich schnell verändernden Technologie in einem mehrjährigen Vertrag zu fixieren, während die Gewerkschaftsseite darauf besteht, dass ohne Fixierung keine Begrenzung möglich ist. Es ist ein Tauziehen um die Governance.


Wichtig ist hier, dass der Einsatzbereich von AI nicht als „Punkt“, sondern als „Linie“ betrachtet wird. AI kann in unzähligen Prozessen von der Recherche bis zur Veröffentlichung involviert sein. Daher kann eine einfache Regel wie „AI-Nutzung muss immer angezeigt werden“ die Realität vor Ort manchmal nicht gut erfassen.



3) „Offenlegung erhöht Vertrauen“ ist eine Illusion? – Das „Dilemma der Ankündigung“

Leser sagen im Allgemeinen, dass sie „über die Nutzung von AI informiert sein möchten“. Doch tatsächlich führt die explizite Angabe der AI-Nutzung eher zu einem Vertrauensverlust – dieses Paradoxon bereitet den Redaktionen Kopfzerbrechen.


Warum? Es gibt mehrere mögliche Gründe.
Ein Grund ist, dass Leser AI direkt mit „Kostensenkungswerkzeug“ und „Symbol für Nachlässigkeit“ verbinden. Ein weiterer Grund ist, dass die „Halluzinationen“ generativer AI weithin bekannt sind und das Vorurteil „AI = Fehlerquelle“ verstärkt wird. Der Rückzug von Ars Technica hat dieses Misstrauen nur verstärkt.


Darüber hinaus gibt es eine bestimmte Anzahl von Menschen, die grundsätzlich nicht möchten, dass AI im Journalismus eingesetzt wird. Für diese Gruppe wird die Offenlegung zu einem „Warnhinweis“.


Letztendlich kann die Offenlegung einerseits ein „Beweis für Aufrichtigkeit“ sein, birgt aber auch das Risiko, „Qualitätsminderung“ oder „Abwesenheit von Journalisten“ zu suggerieren. Hier liegt das „Catch-22“.



4) Regeln kommen nicht hinterher: Die Veränderungsgeschwindigkeit „verdirbt“ die Vorschriften

Die Behauptung, dass die Entwicklung von AI zu schnell ist, wird oft in der Branche gehört. Ein kürzlich viral gegangener Essay heizte die Diskussion an, indem er sagte: „Wenn Sie in den letzten Monaten nicht mit AI gearbeitet haben, werden Sie die heutige AI nicht wiedererkennen.“ Dies befeuert das Argument, dass „selbst wenn wir jetzt Vorschriften formulieren, sie schnell veralten werden“.


Allerdings gibt es auch die Ansicht, dass gerade wegen der schnellen Veränderungen „Grundprinzipien“ notwendig sind. Zum Beispiel:

  • Die Verantwortung für die Faktenprüfung liegt beim Menschen

  • Zitate, Eigennamen und Zahlen müssen mit überprüfbaren Quellen verknüpft sein

  • Bereiche, in denen AI beteiligt war, müssen auditierbare Protokolle hinterlassen
    solche „Betriebsrahmen“, die unabhängig von der Art des Tools gelten, sollten erstellt werden können.


Tatsächlich fördert Trusting News die Entwicklung von Richtlinien zur Transparenz und Erklärung der AI-Nutzung.



5) Sollte das „Gesetz“ eingreifen? – Die Wellen, die der NY FAIR News Act des Staates New York schlug

Die Diskussion hat schließlich auch die Politik erreicht. Im Staat New York wurde ein Gesetzesentwurf (NY FAIR News Act) vorgeschlagen, der klare Haftungsausschlüsse und Kennzeichnungen für AI-beteiligte Nachrichteninhalte fordert und eine Überprüfung durch menschliche Redakteure vorschreibt, was zu kontroversen Meinungen führt.


Die Befürworter argumentieren mit „Sicherstellung von Transparenz“, „Arbeitnehmerschutz“ und „Rechten der Leser“. Die Gegner und Besorgten warnen, dass „die Regierung in redaktionelle Entscheidungen eingreifen könnte“ und dass dies die Unabhängigkeit der Berichterstattung und die Meinungsfreiheit beeinträchtigen könnte.


Hier zeigt sich, dass AI-Governance dabei ist, sich von einer „betrieblichen Praxis“ zu einer Diskussion über die Gestaltung sozialer Systeme zu entwickeln.



6) Reaktionen in den sozialen Medien: Die Stimmen vor Ort fordern mehr „Governance“ als „Transparenz“

Es ist interessant zu sehen, dass sich der Fokus der Diskussionen in den sozialen Medien von der einfachen Gegenüberstellung „AI ist gut oder schlecht“ hin zu „wie man sie regiert“ verlagert.


(A) Gewerkschaften und Journalisten: Forderung nach „Vertrauensleitplanken“ neben dem Erhalt von Arbeitsplätzen

In den Veröffentlichungen der NewsGuild wird die Verhandlung von ProPublica als „Damm gegen den Missbrauch von AI“ gesehen, und es gibt Beiträge, die eine harte Haltung einnehmen und sogar Streiks in Betracht ziehen. Auch auf Bluesky ist ein solidarischer Ton gegenüber den Bewegungen von ProPublica zu erkennen.


Die Implikation ist: „AI wird sowieso eingeführt. Daher sollten Transparenz, menschliche Beteiligung und Minimierung der Beschäftigungsauswirkungen durch Verträge und Prozesse geregelt werden.“


(B) Tech- und Leser-Community: Forderung nach „Audit“ und „Wer hat es gemacht?“ im Zusammenhang mit dem Rückzug von Ars Technica

In Bezug auf den Rückzug des „erfundenen Zitats“ von Ars Technica gibt es viele Reaktionen in Foren und Communities, die fragen: „Warum wurde es nicht überprüft?“ und „Wer hat das Tool benutzt und warum konnte es nicht gestoppt werden?“, was eine Prozessprüfung fordert.


Dies ist weniger eine emotionale Kritik an AI, sondern eher eine Sichtweise, die es als „Fehler im Prozessmanagement“ betrachtet. Wenn AI-Ausgaben als „Material“ behandelt werden, sind Verantwortliche und Standards für die Materialprüfung erforderlich – eine selbstverständliche Forderung.


(C) Reaktionen auf den Regulierungsvorschlag: „Kennzeichnung“ allein reicht nicht aus / „Zu weitreichend“

Die Reaktionen auf den NY FAIR News Act sind gespalten. Auf Plattformen wie LinkedIn wird diskutiert, dass „AI nicht nur ein Problem der Tool-Einführung oder der Kennzeichnung ist, sondern eine ‚Lebenszyklus-Governance‘ erfordert, die Datenzugriff, Genehmigungsbefugnisse und Aufzeichnung umfasst“.


Andererseits bleibt die Kritik stark, dass die Unabhängigkeit der Berichterstattung gefährdet werden könnte. Es gibt Zweifel, ob das Gesetz die Transparenz gewährleisten kann, ohne den „Inhalt der Redaktion“ zu beeinflussen – was in der Realität schwierig ist.



7) Wie sollten Redaktionen „regieren“? – Drei pragmatische Lösungen

Die realistische Antwort auf die in diesem Artikel aufgeworfene Frage ist nicht „AI nutzen / nicht nutzen“, sondern konzentriert sich auf die folgenden drei Punkte.

① Definieren Sie „wichtige AI-Nutzung“ und regulieren Sie diese stark

Eine einheitliche Offenlegung in allen Prozessen ist schwer umsetzbar. Daher:

  • Textgenerierung

  • Wichtige Zusammenfassungen (die die Hauptpunkte der Nachrichten ersetzen)

  • Erzeugung oder Veränderung von Bildern und Videos

  • Erzeugung von Zitaten (dies sollte nahezu verboten sein)
    definieren Sie Bereiche, die „die Urteilsfähigkeit der Leser beeinflussen und bei Fehlern großen Schaden verursachen“, als „wichtig“ und führen Sie starke Audits und Offenlegungen durch.

② Gestalten Sie Human-in-the-loop als „Verantwortung“ und nicht als „Bearbeitung“

„Es wurde von Menschen überprüft“ ist schwach. Wer hat was nach welchem Standard überprüft? Die Gestaltung von Protokollen und Befugnissen wird zum Zentrum der Governance. Der Fall von Ars Technica zeigte, dass die Schwäche eher im operativen Design als in den Regeltexten lag.

③ Erklären Sie den Lesern nicht nur als „Entschuldigung“, sondern als „Verständnishilfe“

Offenlegung ist kein Allheilmittel zur Vertrauenssteigerung. Daher sollte man nicht einfach „AI wurde verwendet“ anheften, sondern:

  • Wofür es verwendet wurde (z.B. Transkription, Dokumentenorganisation)

  • In welchen Bereichen es nicht verwendet wurde (z.B. keine Erzeugung von Zitaten)

  • Korrekturverfahren im Falle von Fehlern
    als „Erklärung“ gestalten.



Fazit: AI ist nicht mehr nur ein „Werkzeug“, sondern ein „Gegenstand der Governance“

AI steigert die Effizienz in den Redaktionen. Gleichzeitig erhöht es jedoch die Wege, auf denen Fehler eingeschleust werden können, und löst die Grenzen der Verantwortung auf. Dass Gewerkschaften AI-Klauseln fordern, Gesetzesentwürfe Transparenz verlangen und Leser-Communities Audits fordern, liegt daran, dass AI nicht mehr nur ein „praktisches Werkzeug“, sondern ein „Gegenstand der Governance“ geworden ist.


##HTML_TAG_