Welche Rolle spielen Mensch und Gesellschaft in einer Medienlandschaft, in der Anwendungen Künstlicher Intelligenz Einzug in die Redaktionen halten? Auch die Medienbranche ist auf den Einsatz innovativer Technologien angewiesen, will sie nicht am offenen Wasserhahn verdursten.

Rolf Schwartmann
Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Für den Journalismus existieren zahlreiche Anwendungsmöglichkeiten: Text- und bildgenerierende KI-Systeme sind mithilfe einer Vielzahl menschengemachter Inhalte darauf trainiert, eigene, neue Texte und Bilder zu erstellen, also zu generieren. Über einen Befehl, den sogenannten Prompt, kann der Nutzer dem System vorgeben, worin die Aufgabe im einzelnen Anwendungsfall besteht.

Mehr zum Thema Digitales

So kann ein Journalist KI-Anwendungen für die Recherche einsetzen oder sich gleich den ganzen Beitrag von einem Bot schreiben lassen. Auch der erste vollautomatisierte Radiosender Deutschlands ist bereits auf Sendung: bigGPT verbreitet rund um die Uhr ein KI-generiertes Programm mittels KI-generierter Stimmen.

Gefahr für die Demokratie

Allerdings sind die genannten Technologien nicht so weit entwickelt, wie es für den unkontrollierten Einsatz in einem derart demokratierelevanten Sektor wie den Medien erforderlich wäre: KI-Systeme erfinden Buchpassagen und "halluzinieren" über historische Ereignisse, um den Nutzeranfragen gerecht zu werden.

Sie greifen auf vorhandene Verzerrungen in ihrer Datenbasis zurück und suggerieren dem Nutzer, mathematisch auf Grundlage ihrer Datenbasis korrekt, dass ein Doktor stets ein männlicher Arzt sei. Und sie reproduzieren Falschmeldungen, wenn diese nur oft genug geäußert wurden.

Regeln aus dem Presserecht

Soll sich die Medienbranche nicht an einer verunreinigten Quelle vergiften, ist daher eine Regulierung erforderlich. Zunächst hilft das Presserecht und die dort normierte Sorgfaltspflicht weiter. "Die Presse hat alle Nachrichten vor ihrer Verbreitung mit der nach den Umständen gebotenen Sorgfalt auf Inhalt, Herkunft und Wahrheit zu prüfen."

Wenn KI als Werkzeug zur Unterstützung journalistischer Arbeit eingesetzt wird, dann kann hinsichtlich der Sorgfaltspflicht weiterhin an die von einem Menschen vorgenommene Verbreitung angeknüpft werden. Ebenso kann der menschliche Befehl Gegenstand einer rechtlichen Betrachtung sein, wenn eine KI die Verbreitung des Presseerzeugnisses übernimmt, der menschliche Journalist aber für die Generierung des Beitrags verantwortlich war.

Kein Gefühl für moralische Fragen

Überlässt man KI-Systemen die eigenständige Recherche und die Generierung von Inhalten, kann das dagegen Probleme bereiten. Auf der Nachrichtenseite Microsoft Start wurde KI-gestützt ein Artikel des Guardian über den ungeklärten Tod einer jungen Frau in Australien präsentiert. Um die Reichweite zu erhöhen, wurde von der KI eine Umfrage veröffentlicht, in welcher die Nutzer über die wahrscheinlichste Todesursache abstimmen konnten.

Für die KI stellte sich diese Form der Präsentation als besonders wirksam dar, um die Interaktion der Nutzer mit der Seite zu erhöhen. Für die daraus resultierende Geschmacklosigkeit hatte das System im wahrsten Sinne des Wortes kein Gefühl.

Lesen Sie auch:

Rechtsverletzung per Knopfdruck

Das Beispiel zeigt aber auch das besondere Risiko der Verletzung von Persönlichkeitsrechten durch den Einsatz generativer KI. Es ist vielleicht darauf zurückzuführen, dass keine Hürden für entsprechende Handlungen bestehen und Persönlichkeitsrechtsverletzungen also quasi auf Knopfdruck herbeigeführt werden können.

Der Entwurf der KI-Verordnung begegnet diesem Risiko, indem er die Nutzer entsprechender KI-Systeme zunächst dazu verpflichtet, offenzulegen, dass Inhalte künstlich erzeugt oder manipuliert werden.

KI-Verordnung wird zu kurz greifen

Dieses Regelwerk geht zahlreiche rechtliche Herausforderungen im Umgang mit KI-Systemen an und wird dennoch zu kurz greifen. Insbesondere urheberrechtlich sind zentrale Rechtsfragen offen, die für Medienunternehmen relevant sind. Wird es eine Vergütung für Urheber geben und in welcher Form wird sie durchgesetzt? Geklärt werden muss, ab wann ein Werk urheberrechtlich geschützt ist, wenn es mithilfe einer KI produziert wird.

Können Prompt-Artists, also die Künstler unter den KI-Journalisten, Anweisungen von der Qualität eines Werkes schaffen, die urheberrechtlich geschützt sind?

Offene Fragen im Urheberrecht

Ab wann ist jemand ein Urheber, wenn KI im Spiel ist? Wer ist verantwortlich für die Inhalte, auch mit Blick auf Desinformation? Klärungsbedürftig ist ferner, wann und wie ein Inhalt als mit KI-Unterstützung erstellt gekennzeichnet werden muss. Problematisch daran ist, dass es insbesondere bei KI-generierten Texten für die Rechteinhaber häufig unmöglich sein wird, die Verwertung ihrer Inhalte in den Ergebnissen der KI nachzuweisen.

Die Lösung liegt vielleicht in der Einführung einer pauschalen Vergütungspflicht für die Inhalte, die von der KI beim sogenannten Text Mining genutzt und verwertet wurden.

Wie vergütet man Qualitätsjournalismus?

Klar ist, dass an Inhalten im Bermudadreieck aus Input, KI und Output verdient wird. Wie die Vergütung berechnet werden soll, ist aber unklar. Vielleicht denkt man am Ende mangels Aufklärbarkeit der Parameter für den Wert der journalistischen Leistung über eine Art bedingungslose Grundabgabe der Anbieter der Modelle an Inhalteanbieter und Urheber nach?

Ob man Qualitätsjournalismus allerdings auf diese Weise angemessen vergütet, ist eine andere Frage.

Neues Tempo-Limit in Holland: Was Touristen unbedingt wissen sollten

Holland: Touristen sollten neue Änderung zu Tempo-Limit beachten

Amsterdam-Besucher aufgepasst: Seit dem 8. Dezember gilt in der niederländischen Hauptstadt ein neues Tempolimit. Ein Verstoß wird teuer.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.