Die Nutzung von ChatGPT gerät zunehmend in die Kritik. Stimmen aus Wirtschaft, Staat und Wissenschaft erkennen ebenso wie Datenschutzbehörden, dass der unbedachte Einsatz der Software ein Problem ist. Worauf kommt es bei einer Lösung an?
Bei aller berechtigten Kritik ist es weder angemessen noch hilfreich, ChatGPT pauschal für unzulässig zu erklären. Das kann nur das letzte Mittel sein. Es ist aber unverzichtbar, die moderne Technik in den europäischen Rechtsrahmen einzupassen.
Die hochaktuelle Technik kollidiert mit Rechtsgütern und legitimen Interessen der europäischen Werteordnung. Wichtige Fragen lauten: Wie steht es um die Transparenz der Algorithmen? Wie verlässlich sind die Ergebnisse der Software? Wie schützt man Kinder und Jugendliche vor nicht altersgerechten Ergebnissen? Wie schützen die Anbieter Persönlichkeitsrechte, geistiges Eigentum und welche Vorkehrungen treffen sie gegen Fake News? In vielen anderen Kontexten ist der Bot aber völlig harmlos.
ChatGPT muss Aufklären
Wie komplex der Umgang mit ChatGPT auch sein mag: Ohne Fakten zu kennen, kann man der Technik nicht klug, konstruktiv und sinnvoll Regeln setzen. Damit die Politik agieren kann, muss der Anbieter diese Fakten schnell liefern. Der Berichterstatter des Europäischen Parlaments,
Auch die deutschen Datenschutzaufsichtsbehörden erwarten Antworten auf Fragen, die sie dem Unternehmen gestellt haben. Den europäischen Alleingang eines Verbots von ChatGPT durch die Datenschutzbehörde in Italien halten viele zu Recht für einen Schnellschuss. Immerhin hat er weltweit Aufsehen erregt und Europa wachgerüttelt.
Aufsichtsbehörden müssen klug und konstruktiv agieren
Aktuell müssen sich die Aufsichtsbehörden der Regulierungsaufgabe annehmen, den Anbieter von ChatGPT zu beaufsichtigen. Sie müssen Maßnahmen im Rahmen ihrer jeweiligen Zuständigkeit ergreifen. Das muss schnell gehen, wenn es etwas bewirken soll. Weil die Zuständigkeiten divers und oft unklar sind, muss man sich koordinieren.
Ein Gesetz, zumal ein europäisches, braucht Zeit. Wenn die KI-Verordnung greift, haben sich viele Gefahren von ChatGPT gegebenenfalls längst realisiert. In Brüssel ringt man dennoch mit Hochdruck um die Frage, welche Konsequenzen es hat, wenn ChatGPT als Hochrisiko-KI einzustufen ist.
Ist es angemessen, die Allzweckanwendung dem besonderen Risikomanagement-Verfahren, einer kontinuierlichen menschlichen Aufsicht und den weit reichenden Dokumentationspflichten der KI-Verordnung zu unterwerfen? Auch alle, die die Software einsetzen, müssen dann ein besonderes Handling der verwendeten Trainingsdaten vornehmen und haben Aufklärungspflichten gegenüber den Nutzern.
Verbote helfen nicht und sind rechtlich problematisch
Staaten könnten nach geltendem Recht zwar die Abrufbarkeit des Dienstes auf ihrem Gebiet technisch durch Netzsperren unterbinden. Diese Sperren sind aber zum einen leicht umgehbar. Zum anderen verbietet man damit ein Angebot, das in zahlreichen Anwendungskontexten harmlos ist. Ob das vor dem Hintergrund der Grundrechte auch von Nutzern und Anbietern verhältnismäßig ist, ist sehr fraglich.
Lesen Sie auch:
- US-Regierung startet öffentliche Konsultation zu KI-Software
In den USA sind akute Regulierungsmaßnahmen für Software auf Basis künstlicher Intelligenz geplant. Die Telekommunikations- und IT-Behörde NTIA hat eine öffentliche Konsultation zu potenziellen Maßnahmen lanciert. Die Ergebnisse sollen helfen, politische Empfehlungen auszuarbeiten. Für die Konzeption zur Umsetzung sich daran anschließender Maßnahmen kurzfristig Expertenwissen einzuholen, ist richtig. Das muss aber gezielt und planvoll, etwa durch eine Ad-Hoc-Kommission, erfolgen.
Verwendete Quelle:
- gdd.de: Offener Brief an das US-Unternehmen Open AI als Entwickler des Textroboters ChatGPT
- dataagenda.podigee.io: Folge 35: ChatGPT- Die Informationsgesellschaft entdeckt das Feuer
- ntia.gov: National Telecommunications and Information Administration
United States Department of Commercentia - ntia.gov: NTIA Seeks Public Input to Boost AI Accountability
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.