• KI Recht

ZDF-„heute journal“: Ungekennzeichnete KI-Bilder und Archivmaterial

In einem Beitrag über ICE-Abschiebungen zeigte das ZDF im „heute journal“ KI-generierte Bilder ohne Kennzeichnung und nutzte zusätzlich Archivmaterial aus anderem Kontext. Der Sender räumte einen „Doppelfehler“ ein, entfernte den Beitrag und kündigte Korrekturen an.

von Olivia Wykretowicz

ZDF verwendet KI-Bilder in „Heute Journal“-Sendung

Sorgfalts- und Kennzeichnungsfragen im Nachrichtenjournalismus

Das ZDF hat nach Kritik an einem Beitrag über Abschiebungen Minderjähriger durch die US-Behörde ICE Fehler eingeräumt: In der Sendung vom 15. Februar 2026 wurde KI-generiertes Bildmaterial ohne Kennzeichnung gezeigt. Zusätzlich lief eine reale Szene aus einem anderen Kontext (2022). ZDF-Nachrichtenchefin Anne Gellinek entschuldigte sich öffentlich, der Beitrag habe „nicht den Standards“ entsprochen und „hätte so nicht gesendet werden dürfen“. Der Sender entfernte den Beitrag zunächst „von allen Plattformen“ und kündigte eine korrigierende Einordnung an.

Der Vorfall im „heute journal“

Nach übereinstimmenden Berichten enthielt der Beitrag Sequenzen, die eine reale ICE-Situation nahelegten, obwohl es sich (jedenfalls teilweise) um synthetisches Material handelte. In der nachträglichen Korrektur wurde das KI-Material entfernt bzw. ersetzt. Zugleich nahm das ZDF auch die 2022er-Sequenz aus der Mediatheksfassung heraus und versah die Stelle mit einem Hinweis, das Video sei „aus redaktionellen Gründen nachträglich geändert“ worden.

Maßstäbe: Transparenz, Einordnung, redaktionelle Verantwortung

Für Nachrichtenformate ist der Kern nicht „KI ja oder nein“, sondern Transparenz und Kontext: Sobald künstlich erzeugte Bilder eingesetzt werden, braucht es eine unmittelbar wahrnehmbare Kennzeichnung und eine redaktionelle Einordnung als Illustration, damit kein dokumentarischer Eindruck entsteht. Das ZDF verweist in seinen eigenen Regeln ausdrücklich darauf, dass mit Unterstützung generativer KI erstellte Inhalte – „wo journalistisch geboten“ – kenntlich gemacht werden sollen. Die Regeln gelten plattformübergreifend.

Konsequenzen für Glaubwürdigkeit, Prozesse und Aufarbeitung

Der Vorgang hat auch deshalb Gewicht, weil er in einem zentralen Nachrichtenformat passiert ist. In der medieninternen Debatte wird vor allem die Vermengung von recherchierten Inhalten und KI-Content kritisiert. Der Deutsche Journalisten-Verband fordert u. a. eine deutliche Kennzeichnung „in unmittelbarer Nähe“ zum Inhalt und schnelle, transparente Korrekturen bei Fehlern.

Für das ZDF und andere Redaktionen steht damit weniger eine Einzelfrage, sondern die Prozessseite im Fokus: klare Verantwortlichkeiten zwischen Redaktion, Bildbeschaffung und Produktion, belastbare Freigabeschritte und Kontrollen gerade dort, wo Bildmaterial besonders starke Wirkungen entfaltet (Kinder, Zwangssituationen, Gewaltkontexte).

Rechtsgrundlagen in Kürze

Eine allgemeine, einheitliche „KI-Kennzeichnungspflicht“ im Nachrichtenbereich existiert bislang nicht in Form eines einzigen Spezialgesetzes. Rechtlich maßgeblich sind vielmehr die Sorgfalts- und Transparenzanforderungen: Für journalistisch-redaktionelle Online-Angebote verlangt § 19 Abs. 1 Medienstaatsvertrag die Beachtung anerkannter journalistischer Grundsätze. Dazu gehört, dass Bildmaterial nicht in einer Weise eingesetzt wird, die einen dokumentarischen Eindruck erweckt, obwohl es sich nur um Illustration oder synthetisches Material handelt.

Ergänzend dient der Pressekodex (Richtlinie 2.2 „Symbolfoto“) als etablierter Orientierungsmaßstab: Inszenierte oder rein illustrative Bilder sind so zu kennzeichnen, dass keine Irreführung entsteht.

Hinzu kommen EU-Transparenzpflichten: Nach Art. 50 der EU-KI-Verordnung (AI Act) ist bei KI-erzeugten oder manipulierten Inhalten („Deepfakes“) grundsätzlich offenzulegen, dass der Inhalt künstlich erzeugt oder verändert wurde.

Wir informieren Sie laufend über neue Entwicklungen zum KI-Recht und stehen Ihnen mit unserer spezialisierten Rechtsberatung im Bereich KI-Recht zur Seite.

Zurück zur Newsübersicht