In der Pandemie geht es um folgenschwere Entscheidungen, wie die nach der Zuteilung eines Beatmungsgeräts, welche Personengruppen zuerst geimpft werden sollen oder unter welchen Voraussetzungen Finanzhilfen für Unternehmen gewährt werden können. Künstliche Intelligenz wirft ethische und rechtliche Fragen auf. Wir brauchen dafür dringend einen Rechtsrahmen.
Entscheiden darüber Menschen, so ist deren Beurteilung fehleranfällig. Fehler können etwa passieren, wenn eine Entscheidung offenkundig nach Gefühl getroffen wurde oder weil sie auf bewusst oder unbewusst falschen Grundlagen basiert. Fehler gehören schließlich zur Natur des Menschen.
Zur "Natur" von Maschinen gehört es, keine Fehler zu machen. Wie auch? Sie entscheiden ja nicht, sondern vollziehen nur menschliche Entscheidungen, wenn der Mensch sie darauf programmiert.
Kann man Maschinenentscheidungen vertrauen?
Füttert man Computer mit entsprechenden Daten, dann können sie errechnen, was statistisch sinnvoll ist. Aber soll ein Mensch einem Computer mehr vertrauen, wenn er nach vernünftigem menschlichen Ermessen davon ausgehen kann, dass die Maschine eine richtigere Entscheidung trifft als ein Mensch?
Nach dem Ergebnis einer Studie der Universität Tübingen bringt man den Vorschlägen von Maschinen dann durchaus Vertrauen entgegen, wenn der Mensch das Letztentscheidungsrecht besitzt. Diese Wertung deckt sich mit den rechtlichen Vorgaben der Datenschutz-Grundverordnung.
Lesen Sie auch: Wie Google, Apple, Facebook und Amazon ihre Nutzer beherrschen
Wichtige Entscheidungen müssen Menschen alleine treffen
Je mehr ethische Bedeutung eine Entscheidung besitzt, desto unverzichtbarer ist deren menschlicher Charakter. Die Zuteilung eines Beatmungsgerätes ist danach also eher eine Frage menschlichen Ermessens als der Statistik.
Dass man Algorithmen in Krisen stärker vertraut und dass mehr Wissen über algorithmenbasierte Entscheidungen sich positiv auf deren Akzeptanz auswirkt, ist ein weiteres Ergebnis der Untersuchung. Wer die Entscheidung in der Rolle des handelnden Arztes trifft, ist eher bereit ihr zu vertrauen als der ihr unterworfene Patient.
Lesen Sie auch: Medizinethikerin: "Impfreisen sind ethisch sehr problematisch"
Willkommene Entscheidungshelfer in der Pandemie
Fazit: Maschinen sind als Entscheidungshilfen gerade auch in der Krise willkommen. Die Entscheidung treffen und verantworten muss aber der Mensch. Das Ergebnis ist menschlich naheliegend und juristisch korrekt.
Es bleibt die Frage, was ein Entscheidungsträger tun soll, wenn eine Maschinenempfehlung zwar "vernünftig", aber "gefühlt" falsch ist. Wie viel Freiheit zum Widerspruch lässt der hippokratische Eid einem gewissenhaften Arzt, der weiß, dass sein Gefühl trügen kann, während die Maschine nüchtern Überlebenswahrscheinlichkeiten korrekt errechnet hat?
Verwendete Quellen:
- Dataagenda-Podcast: Von der Risikoorientierung bis zu einem Rechtsrahmen für künstliche Intelligenz
- Presseportal.de: Algorithmen als Entscheidungshilfe in der Pandemie: Studie zeigt grundsätzliche Zustimmung
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.