War das jetzt ok, KI?

Diese rechtlichen Regelungen müssen Redaktionen kennen. (Illustration: Zsuzsanna Ilijin) 

Künstliche Intelligenz verändert den Journalismus. Angesichts der rasanten Entwicklung verliert man leicht den Überblick, was rechtlich erlaubt ist. Wann verletzen Redaktionen die Sorgfaltspflicht oder den Urheberschutz? Was steht im neuen AI Act der EU? Die wichtigsten Fragen und Antworten. Text: Marie Welling und Mia Pankoke, Illustration Zsuzsanna Ilijin 

bigGPT spielt die beliebtesten Songs aus Spotify, Shazam und TikTok. Dazu gibt es Nachrichten aus der Tech-Szene, Sport und Unterhaltung, vorgetragen von der Moderatorin bigLayla oder Moderator bigBen. Alles so, wie bei anderen Radiosendern auch. Oder? 

Wer genau hinhört, merkt, dass Laylas Sätze abgehackt klingen. Bens Wortwahl ist steif und wenig umgangssprachlich. Der Grund: Layla und Ben sind keine Menschen, sondern synthetische Stimmen. Wie sämtliche Inhalte auf bigGPT sind die beiden KI-generiert. KI-Tools sind längst in den Medien angekommen. Früher haben sie dabei geholfen, Texte zu formulieren oder zu übersetzen, aber heute geht es um mehr. Mit KI-Anwendungen erstellen Redaktionen Videos, erkennen Trends in sozialen Medien, kuratieren Nachrichten oder werten Datenmengen aus. Oft ist unklar, an welche Regeln sich Betreiber, Nutzende und eben auch Journalist:innen halten müssen. Die EU hat mit einer neuen Verordnung den weltweit ersten Rechtsrahmen für KI geschaffen. Gleichzeitig gelten auch für KI-generierte Inhalte die Vorgaben des Pressekodex, etwa die allgemeine Sorgfaltspflicht. Welche Fragen sich Redaktionen stellen sollen, wenn sie KI nutzen. 

Darf ich die KI verwenden?  

Am 13. März dieses Jahres hat das EU-Parlament den sogenannten AI Act verabschiedet. Die EU hat darin vier Risikogruppen von KI-Systemen klassifiziert. Je höher das Risiko bei der Nutzung von Anwendungen, desto strenger sind die Regeln. Besonders gefährliche Anwendungen sind in der EU künftig komplett verboten. Zum Beispiel das soziale Scoring, bei dem Staaten Sozialleistungen an Verhalten von Bürger:innen knüpfen. So soll es in China teilweise geschehen. Das gleiche gilt, wenn KI genutzt wird, um Emotionen zu erkennen. Es gibt Berichte über Unternehmen, die solche Anwendungen in Bewerbungsverfahren eingesetzt haben sollen.  

KI-Systeme zur Gesichtserkennung, zum Beispiel PimEyes, sind zum Teil für staatliche Stellen erlaubt. Journalist:innen dürfen sie aber nicht einsetzen. Der Bellingcat-Journalist Michael Colborne hatte PimEyes genutzt, um der ehemaligen RAF-Terroristin Daniela Klette auf die Spur zu kommen. Künftig funktionieren solche Recherchen nicht mehr. Die Verordnung hat also direkte Wirkung auf die journalistische Arbeit.  

„Obwohl die Verordnung auf Betreiber von KI-Systemen ausgelegt ist, müssen sich Journalisten weiterhin an Gesetze halten.“ Moritz Köhler forscht an der TH Köln zum Thema KI-Recht 

Medienhäuser müssen künftig prüfen, ob eine KI aus dem EU-Ausland hierzulande EU-Recht verletzt, weil die Nutzung als zu risikoreich eingestuft ist. „Obwohl die Verordnung auf Betreiber von KI-Systemen ausgelegt ist, müssen sich Journalisten weiterhin an Gesetze halten und sie sind auch weiterhin für die publizierten Inhalte verantwortlich“, sagt Moritz Köhler, der an der TH Köln zum Thema KI-Recht forscht. „Im Vergleich zu anderen Berufsgruppen sind Journalisten aber relativ wenig von Einschränkungen betroffen“, so Rolf Schwartmann, Professor für Medienrecht an der TH Köln.  

Entsprechen die KI-Inhalte den Regeln des Pressekodex?  

Der deutsche Presserat sieht bislang keinen Grund, dem Pressekodex neue Punkte hinzuzufügen: „Es gilt wie bisher auch, unabhängig davon, welche Instrumente Journalistinnen und Journalisten nutzen, dass das Resultat den ethischen Bestimmungen entsprechen muss“, sagt Manfred Protze, Sprecher des Rats. Allerdings hat das Plenum im März einen Ausschuss eingesetzt, der nun berät und eine Empfehlung geben soll. Die Entscheidung, ob Handlungsbedarf besteht, ist noch offen. Medienschaffende sollten mögliche Biases der KI daher auf dem Schirm haben. KIs neigen dazu, diskriminierende Vorurteile zu reproduzieren und teils zu intensivieren, das ist erwiesen. Redaktionen sind auch weiterhin verpflichtet, Informationen und Quellen gewissenhaft zu prüfen. Der Pressekodex verlangt Wahrhaftigkeit, Sorgfalt, Richtigstellung und Nichtdiskriminierung.  

Bislang reichen diese Regeln Protze zufolge noch aus. Ob das auch in Zukunft gilt? Der Rat werde stets aktuell entscheiden, so Protze: „Der Presserat kümmert sich um Probleme, wenn sie auftreten, nicht darum, solche anzugehen, die theoretisch auftreten könnten“, betont er.  

Bisher musste der Rat eine Rüge aufgrund eines durch KI erstellten Inhaltes aussprechen: Die Zeitschrift LISA aus der Verlagsgruppe Hubert Burda hatte Bilder und Rezepte für ein Extraheft mit 99 Pasta-Rezepten von einer KI generieren lassen. Die Bilder waren allerdings nicht als Symbolbilder gekennzeichnet. Die Leserschaft musste nach Ansicht des Presserates fälschlicherweise denken, es handelte sich um Bilder der tatsächlich gekochten Rezepte. Bei den Rezept-Texten stellte der Presserat aber keinen Verstoß fest, da bei Texten keine Kennzeichnungspflicht besteht.  

Habe ich die KI-Inhalte richtig gekennzeichnet? 

Mit dem EU AI Act könnte sich die Kennzeichnungspflicht künftig ändern: Deepfakes, also Bilder, Audios oder Videos, die synthetisch sind und wirklichen Personen, Orten oder Gegenständen ähneln, müssen künftig als solche gekennzeichnet sein. Gleiches gilt dann auch für Texte, die eine KI erstellt hat. Stammen also Wetterberichte von einer Maschine oder hat ein Programm eine Polizeimeldung geglättet, dann muss das auch unter dem Text stehen. Es gibt aber eine wichtige Ausnahme: Hat ein Redakteur oder eine Redakteurin den Text vor der Veröffentlichung noch einmal redaktionell geprüft, entfällt die Kennzeichnungspflicht.  

„Die größte Gefahr für die Berichterstattung durch KI besteht darin, dass die Menschen noch stärker das Vertrauen verlieren.“ Jessica Heesen, Medienethikerin an der Universität Tübingen  

Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Universität Tübingen, kritisiert diese Ausnahme – vor allem wegen der Medienhäuser und Journalist:innen selbst. „Die größte Gefahr für die Berichterstattung durch KI besteht darin, dass die Menschen noch stärker das Vertrauen verlieren“, sagt sie. Deshalb lautet ihr Rat, dass auch redaktionell geprüfte KI-Texte gekennzeichnet werden sollten. Der Medienethikerin zufolge sollten Redaktionen also freiwillig alle Inhalte kennzeichnen. Für Recherchen im Hintergrund, bei denen die KI nur unterstützt und keine eigenen Inhalte komplett generiert hat, gelte das nicht. Aber dennoch trügen die Journalist:innen die Verantwortung für Faktengenauigkeit. „Sich zurücklehnen und Fehler auf die KI schieben, das geht nicht“, sagt die Medienethikerin.  

Für eine strengere Kennzeichnungspflicht hatte sich auch der Deutsche Journalistenverband (DJV) in einem Positionspapier ausgesprochen, das im April 2023 veröffentlicht wurde. Dem DJV zufolge sollten Journalist:innen sowohl Inhalte kennzeichnen, die gänzlich mit KI erstellt wurden, als auch solche, bei denen KI nur teilweise unterstützt hat. Der Verband argumentiert außerdem, dass der redaktionelle Blick und das menschliche Auge bei der Recherche und Zusammenstellung des Datenmaterials unersetzlich seien. Und ähnlich wie Heesen betont auch der DJV die Gefahr des Vertrauensverlustes. Auch in seiner Bewertung des AI Acts begrüßt der DJV die aktuelle Kennzeichnungspflicht, allerdings geht sie dem Verband nicht weit genug. Bedenklich sei, dass Reichweite und Intensität der menschlichen Überprüfung nicht festgelegt sind und nicht klargestellt ist, dass die redaktionelle Kontrolle durch einen Menschen durchgeführt werden muss. 

Habe ich den Anwendungszweck einer GPAI verändert?  

Wenn Journalist:innen mit KI arbeiten, nutzen sie häufig generative KI, die zur sogenannten General Purpose AI (GPAI) zählt. Das sind Programme wie ChatGPT oder PerplexityAI. Diese Anwendungen haben keinen einheitlichen Anwendungsbereich, das sagt schon ihr Name. Je nach Prompt dichten sie Lieder, programmieren neue Anwendungen oder generieren fiktive Interviews. Die EU hat dafür noch einmal besondere Regeln erlassen. Denn die GPAIs bergen die Gefahr, die Technologie zu missbrauchen. „Eine General Purpose AI kann als Wasserpistole verwendet werden, sie kann aber auch eine echte Waffe werden“, sagt Rechtsexperte Schwartmann.  

Solchem Missbrauch soll die neue Verordnung vorbeugen: „Wenn ein Nutzer den Zweck einer GPAI so verändert, dass sie zur Hochrisiko-KI oder anders instrumentalisiert wird, dann gelten für den Nutzer die gleichen Pflichten wie für den Anbieter“, erklärt Schwartmann. Das bedeutet, dass die Nutzer:innen dokumentieren müssen, mit welchen Daten sie gearbeitet haben oder gewährleisten müssen, dass die KI keinen Bias entwickelt. All das gilt auch für Journalist:innen und Redaktionen, wenn sie in die Situation geraten, eine GPAI zur Hochrisiko-KI zu verändern. Halten sie die Pflichten der Verordnung nicht ein, könnten künftig hohe Bußgeldstrafen drohen.  

Habe ich aus Versehen Urheberrechte verletzt? 

Das Beispiel der GPAI zeigt, wie komplex die Regeln für den Umgang mit KI sind. KI-Expertin Heesen rät daher allen Journalist:innen, die Umsetzung des AI Acts in Deutschland zu verfolgen und sich im Umgang mit den Anwendungen weiterzubilden. Denn beim Urheberrecht wird es noch komplizierter. Gemäß dem Urheberrechtsgesetz sind Werke nur geschützt, wenn sie eine persönliche geistige Schöpfung eines Menschen sind. Rein KI-basierte Inhalte stehen daher nicht unter urheberrechtlichem Schutz. Doch was, wenn die KI Urheberrechte verletzt, weil sie sich von Texten inspirieren lässt, die andere geschrieben haben oder sogar ganze Teile plagiatsmäßig übernimmt? Um so etwas nachverfolgen zu können, müssen GPAI-Anbieter gemäß der EU-Verordnung künftig Zusammenfassungen darüber veröffentlichen, welches Trainingsmaterial sie für die KI genutzt haben. Bisher weiß nämlich niemand so genau, woher eine KI überhaupt ihre Informationen nimmt. Die Medienrechtler Köhler und Schwartmann sind allerdings skeptisch, ob das in der Praxis wirklich hilft. Sie raten allen, die nicht möchten, dass die eigenen Werke für das Training von KIs verwendet werden, einen so genannten Nutzungsvorbehalt zu erklären und diesen beispielsweise im Impressum auf der eigenen Webseite zu vermerken.  

Die Möglichkeit des Nutzungsvorbehalts regelt in Deutschland das Urheberrechtsgesetz. Wirklich sicher ist aber auch das nicht: „Es gibt für den Nutzungsvorbehalt noch kein standardisiertes technisches Format, dass ein Bot, der auf der Suche nach Trainingsdaten ist, sicher erkennt“, sagt Köhler. Auch der DJV fordert in seiner Bewertung des AI Acts, dass der Gesetzgeber eine klare Regelung schafft, die die zustimmungs- und vergütungsfreie Nutzung urheberrechtlich geschützter Inhalte für das KI-Training untersagt. Der Nutzungsvorbehalt funktioniere zwar in der Theorie, in der Praxis sei er jedoch schwierig anwendbar, sagt auch Schwartmann. Somit kann es sein, dass KIs schließlich trotz Nutzungsvorbehalt doch Bilder oder Texte erstellen, die Urheberrechte verletzen. Betroffenen bleibt dann noch die Möglichkeit, eine Beschwerde einzulegen. Auch die Expertin Heesen ist sich dieses Problems bewusst: „Journalist:innen sind hier in einem Dilemma“, sagt sie. „Einerseits profitieren sie von den Informationen und der Effizienz der KI, andererseits beuten sie sich und ihre Profession damit quasi selbst aus.“  

 

Marie Welling und Mia Pankoke sind Mitglieder der Wirtschaftsredaktion Wortwert in Köln. 

Dazu: Wir sind überall in Beta-Phasen. Der Einsatz von KI in den Redaktionen.