Persönlichkeitsrechtsverletzungen erfolgen neuerdings auch mit Hilfe Künstlicher Intelligenz (KI). Das eröffnet eine neue Dimension.
Das von der Zeitschrift "Aktuelle" bei ChatGPT "in Auftrag gegebene" Interview mit
ChatGPT schert sich nicht um Persönlichkeitsrecht
Völlig ungeklärt ist aber, wie man den Beitrag von OpenAI, dem Anbieter von ChatGPT, gewichten soll. Denn der Bot hat das "Interview" mit Michael Schumacher immerhin gegeben. Er hätte es mit Blick auf das Persönlichkeitsrecht des früheren Formel-1-Weltmeisters auch verweigern können. Weil die Software aber nicht auf Verantwortung programmiert ist und einfach loslegt, erzeugt sie auch Falschnachrichten am laufenden Meter.
Ohne jeden Skrupel fertigt sie zum Beispiel täuschend echte Fotos von Papst Franziskus als "Fashion Victim" mit cooler weißer Daunenjacke an oder Bilder von erfundenen Gewalttaten. Der Fotograf Boris Eldagsen konnte per KI ein Foto erzeugen (lassen), mit dem er einen Kunstwettbewerb für Menschen gewann.
Er gab den Preis zurück und stieß eine Debatte über die Risiken Künstlicher Intelligenz an. Die bestehen in der Tat. Eldagsens Erfolg beim Fotowettbewerb beweist, dass man die Ergebnisse der KI menschlich nicht mehr hinreichend überprüfen kann.
Lüge oder Wahrheit: Eine Frage der Wahrscheinlichkeit
Das muss aber sein – bei einem verantwortbaren Einsatz von KI, von der man nicht von vornherein weiß, ob das, was sie liefert, auf Wahrheit oder Lüge basiert. Der Zugriff auf Unwahrheiten kann aus technischen Gründen geschehen, weil bestimmte Auskünfte auf Wahrscheinlichkeitsberechnungen und nicht auf Faktenchecks beruhen.
Häufig geäußerte Lügen erhalten algorithmisch den Vorzug vor der Wahrheit. Dieser Mechanismus ist nicht nur aus sozialen Medien bekannt, er betrifft auch die automatische Vervollständigungsfunktion von Suchmaschinen.
Wahrheiten können unterdrückt werden
Am Ende ist niemand davor gefeit, dass neben gezielten Persönlichkeitsrechtsverletzungen auch Unwahrheiten absichtsvoll erzeugt oder Wahrheiten gezielt unterdrückt werden. Zu einigen Anfragen etwa schweigt der Bot. So wurden, auf Marktdurchdringung fokussierend, Antworten auf Fragen verweigert, die sich auf die Menschenrechtssituation der Uiguren bezogen – mutmaßlich, weil darüber in China nicht berichtet werden darf.
Grenzen für den Bot
Anwendungen wie ChatGPT sind also stets mit Vorsicht zu genießen. Aktuell wird der Dienst weltweit mit unzähligen Personendaten gefüttert. Ihn zu verbieten, bringt nichts. Für die Nutzung müssen umso dringender Regeln her.
Damit der Staat sie schaffen kann, müssen Anbieter wie ChatGPT sehr schnell erklären, wie ihre Dienste funktionieren, zu welchen Zwecken sie betrieben werden und wie sie sich für ihre Technik verantworten wollen.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.