Immer mehr gefälschte Videos kursieren im Netz: Aufnahmen, in denen Menschen Dinge sagen, die sie in Wirklichkeit nie gesagt haben. Wie entstehen diese Deepfakes? Und wie kann man sie entlarven?

Mehr Ratgeber-Themen finden Sie hier

Donald Trump erklärt seinen Rücktritt als US-Präsident, US-Waffengegnerin Emma Gonzalez zerreißt die amerikanische Verfassung. Und Mark Zuckerberg erklärt auf Instagram, er wolle das Verhalten der Facebook-Nutzer manipulieren.

Das alles klingt unglaubwürdig – und das ist es auch. Bei den genannten Fällen handelt es sich um Deepfakes: manipulierte Videos, auf denen Menschen etwas sagen, was sie nie gesagt haben. Seit 2017 kursieren immer mehr dieser "tiefen Fälschungen" im Netz.

Deepfake: Gesicht wird ausgetauscht

Was genau ist ein Deepfake? Auf künstlicher Intelligenz basierende Software tauscht das Gesicht einer Person in einem Video aus. Die Methode überträgt dafür die typischen Gesichtseigenschaften von Person A auf eine Aufnahme von Person B, behält aber Sprache und Mimik von Person B bei.

Im manipulierten Video sieht es dann so aus, als würde Person A sprechen – obwohl die Originalaufnahme Person B zeigt.

Auf Videoportalen wie YouTube gibt es inzwischen eine Menge Beispiele, die die Möglichkeiten von Deepfakes verdeutlichen: zum Beispiel einen Auftritt des Schauspielers Ross Marquand in der Late-Night-Show von Jimmy Kimmel.

Er parodiert die Oscar-Dankesreden von elf Kollegen – im Fernsehbild werden dazu auch noch die passenden Gesichter auf sein eigenes übertragen.

Fälschungen einfacher herzustellen als früher

Manipulierte Bilder und Videos gibt es, seit es Malerei, Fotografie und Film gibt. Bearbeitete Videos waren aber lange eine Sache für Profis. Inzwischen erlaubt es frei zugängliche Software auch der breiten Masse, damit zu hantieren.

Ein Beispiel ist die 2017 erschienene FakeApp, die kostenlos ein trainiertes neuronales Netzwerk zum Erstellen von Videos zur Verfügung stellt. Die Version 2.2 der FakeApp wurde allein beim deutschen Software-Portal chip.de bereits rund 68.000 Mal heruntergeladen.

"Die Einstiegshürden sind deutlich gesunken", erklärt Christian Riess im Gespräch mit unserer Redaktion. Der Informatiker beschäftigt sich an der Universität Erlangen-Nürnberg mit digitaler Medienforensik.

Nicht jedes mit solchen Programmen erstellte Video sei allerdings täuschend echt, denn viele Apps seien nicht flexibel genug. "Sie benötigen relativ frontale Gesichtsaufnahmen mit wenig Bewegungen."

Wie Experten Deepfakes entlarven

Typische Abbildungsfehler können daher auch "normale" Zuschauer erkennen – zum Beispiel bei den manipulierten Videos, die der Nutzer Nick Cage in seinem YouTube-Kanal hochlädt.

Mit größerem Aufwand und Budget lassen sich aber täuschend echte Sequenzen herstellen. "Wenn man Fälschungen mit dem Auge nicht mehr erkennt, kommen technische Ansätze zum Einsatz", erklärt Christian Riess.

Diese sind jedoch meistens ein Fall für Profis. Riess zufolge kommen bei der Erkennung von Deepfakes sogenannte statistische Ansätze zum Zuge:

Foto- und Videodateien bestehen aus einer häufig riesigen Zahl von einzelnen Bildpunkten oder Pixeln. Eingriffe in eine Datei führen zu statistischen Abweichungen von benachbarten Bildpunkten – und diese lassen sich mit Hilfe von Methoden maschinellen Lernens aufspüren.

"Daten, die direkt aus einer Kamera kommen, haben eine andere Statistik als Daten, die aus dem Netz kommen. Generell ist es möglich, diese Originaldaten von computergenerierten Daten zu unterscheiden", erklärt Riess.

Die Einschätzung, ob hinter einer Fälschung eine böswillige Absicht steckt, kann aber weiterhin nur ein Mensch treffen.

Verletzung von Persönlichkeitsrechten

Noch gibt es nicht viele Forschungsgruppen wie die an der Universität Erlangen-Nürnberg, die sich mit digitaler Forensik beschäftigen. Wahrscheinlich wird das Thema in Zukunft aber dringlicher. Denn Deepfakes können die Persönlichkeitsrechte Betroffener verletzen.

Bekannt wurden sie ursprünglich, als Gesichter prominenter Frauen wie Scarlett Johansson oder Emma Watson auf die Körper von Porno-Darstellerinnen montiert wurden. Das Sicherheitsunternehmen "Deeptrace Labs" schätzt, dass 96 Prozent aller im Netz kursierenden Deepfakes pornografische Aufnahmen zeigen.

Fälschungen zerstören Vertrauen

Ein gefährliches Instrument sind Deepfakes auch in der Politik. "Stellen wir uns einmal vor, in einem künftigen Präsidentschaftswahlkampf würde plötzlich eine Aufnahme kursieren, auf der einer der Kandidaten mit einem Mafia-Boss verhandelt", sagte der US-Experte Aviv Ovadya in einem Interview mit dem Portal jetzt.de.

Noch ist das hypothetisch. Doch schon allein das Wissen, dass diese Fälschungen möglich sind, hat Folgen: Es lässt Menschen zunehmend an der Echtheit von Bildern und Videos zweifeln. "Woher soll der Bürger, die Öffentlichkeit, dann noch wissen, was wahr ist?", fragt Ovadya.

Ein Beispiel hat unlängst der afrikanische Staat Gabun geliefert. Dessen gesundheitlich angeschlagener Präsident richtete sich Ende 2018 in einer Videobotschaft an sein Volk.

Das Militär behauptete, es handele sich um ein Deepfake, mit dem der Präsident seine schwere Krankheit verschleiern wolle, und putschte – wenn auch erfolglos. Einen Beweis für eine Fälschung gab es der "Süddeutschen Zeitung" zufolge nicht.

Ein anderes Beispiel ist ein Video der Politikerin Nancy Pelosi, das US-Präsident Donald Trump über Twitter verbreitete. Es zeigt eine Rede der Trump-Gegnerin, bei der sie betrunken zu sein scheint.

Die einfache Erklärung: Die Personen, die hinter der erzkonservativen Facebook-Seite "Politics WatchDog" stecken, hatten die Aufnahme verlangsamt. Eigentlich handelt es sich bei der Manipulation also nicht einmal um ein Deepfake – aber sie ist nach Ansicht von Experten nur die Spitze des Eisbergs von Möglichkeiten, mit denen sich politische Gegner diskreditieren lassen.

"Forschung steht noch am Anfang"

Handlungsbedarf sehen inzwischen auch große Tech-Unternehmen: Facebook versprach im September, mehr Forschung auf dem Gebiet anzustoßen, um Deepfakes besser aufdecken zu können.

Twitter stellte im November neue Regeln zur Diskussion: Manipulierte Inhalte sollen demnach mit einem Hinweis versehen werden – oder mit einer Warnung, wenn ein Nutzer diese Inhalte teilen will.

Das Thema bleibt eine Herausforderung – denn Ermittler und Wissenschaftler müssen mit immer neuen technischen Möglichkeiten Schritt halten. Auf eine Anfrage der FDP-Bundestagsfraktion hat die Bundesregierung gerade geantwortet: "Die Entwicklung und Forschung zum Thema Deepfakes steht noch am Anfang."

Verwendete Quellen:

  • Gespräch mit Dr.-Ing. Christian Riess, IT-Security Infrastructures Lab, Friedrich-Alexander-Universität Erlangen-Nürnberg
  • ai.facebook.com: Creating a data set and a challenge for deepfakes
  • blog.twitter.com: Help us shape our appraoch to synthetic and manipulated media
  • Deeptracelabs.com: Mapping the Deepfake Landscape
  • Deutscher Bundestag: Drucksache 19/19657
  • Süddeutsche Zeitung 6. Dezember 2019: Echt falsch
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.