Im Kampf gegen Desinformation: Deepfakes nüchtern betrachtet
Mit der Ausbreitung der Deepfake-Technologie wurde ein neues Kapitel in der langen Geschichte des Einsatzes von Medien zur verdeckten Verbreitung von Desinformation aufgeschlagen, die dazu dient, Gesellschaften zu spalten oder sogar Gewalt zu schüren. Im Kampf gegen Deepfakes werden nicht nur innovative Lösungen benötigt, sondern ein gemeinsames Bekenntnis zu Menschenrechten und Menschenwürde.
Im Juli 2020 veröffentlichten wir ein Deepfake, in dem Richard Nixon zu sehen ist, der die Weltöffentlichkeit vom Oval Office aus darüber informiert, dass die Apollo 11-Mission in einer Tragödie geendet hat. Unser Ziel war es, den Leuten dabei zu helfen, Deepfakes – den Einsatz künstlicher Intelligenz zur Erzeugung falscher Bild- oder Tonaufnahmen, die real scheinen – zu verstehen. Aber wir können uns vorstellen, was geschehen würde, wenn es unsere Absicht gewesen wäre, unseren Film stattdessen zur Desinformation einzusetzen.
Das Projekt mit dem Titel In Event of Moon Disaster, das von den beiden Regisseurinnen Francesca Panetta und Halsey Burgund im Auftrag des MIT Center for Advanced Virtuality geleitet wurde (D. Fox Harrell leitet das Zentrum, Pakinam Amer ist ein MIT-Forscher), liefert eine alternative Geschichte der Mondlandung. Dazu wurde Filmmaterial aus dem NASA-Archiv bearbeitet und mit anhand künstlicher Intelligenz erzeugten synthetischen Videoaufnahmen einer Nixon-Ansprache kombiniert. Ergänzt wurde die Arbeit durch Material, das der Entmystifizierung von Deepfakes dient.
Nach der Veröffentlichung unseres Videos sahen es sich innerhalb weniger Wochen fast eine Million Menschen an. Es wurde auf Social-Media-Plattformen und in Online-Communitys in Umlauf gebracht und veranschaulichte, wie leicht miteinander kombinierte synthetische Medien das menschliche Auge täuschen können und wie groß die Fähigkeit der sozialen Medien ist, menschliche Augen zu erreichen. Die Zahlen waren aufschlussreich: Ein Quiz auf der Website zeigte, dass 49 Prozent der Personen, die sich den Film angesehen hatten, irrtümlich glaubten, Nixons synthetisch verändertes Gesicht sei real; nicht weniger als 65 Prozent hielten seine Stimme für echt.
Als die Deepfakes vergangenes Jahr ins Rampenlicht rückten, kündigten einige Medien in angsterfüllten Schlagzeilen das „Ende der Nachrichten“ und einen „Zusammenbruch der Realität“ an. Aber wie besorgt müssen wir tatsächlich sein? Die Manipulation der Medien, sei es zu kreativen Zwecken oder mit heimtückischen Absichten, ist nicht neu. Die Gesellschaft bringt seit langem Medien hervor, die in der Lage sind, Schaden anzurichten. Nehmen wir beispielsweise einen 1993 in Village Voice erschienenen Artikel mit dem Titel „A Rape in Cyberspace“ (Eine Vergewaltigung im virtuellen Raum), in dem Julian Dibbell über eine neuartige traumatische Erfahrung berichtete: Der Avater einer Frau war im Internet in einem Mehrspieler-Spiel vergewaltigt worden. Lewis D. Wheeler lässt sein Gesicht für das Projekt "In Event of Moon Disaster" abbilden. | Foto: MIT Center for Advanced Virtuality, 2019 Es war eine andere Technologie, aber die gravierenden Auswirkungen auf das menschliche Verhalten und die Angst angesichts der Vermengung von virtueller und realer Welt ähnelten dem, was wir heute mit den Deepfakes erleben. Es kommt nicht allein auf die Technologie an, sondern auf die Art, wie wir ihre Produkte weitergeben, betrachten, regulieren und an ihren Wahrheitsgehalt glauben, wenn wir daran glauben wollen – selbst wenn wir wissen, dass sie gefälscht sind.
Im Juni 2019 waren weltweit rund 49.000 Deepfake-Videos in Umlauf, die mehr als 134 Millionen Mal angesehen worden waren. 96 Prozent dieser Videos wurden als „nicht folgenreich“ eingestuft, darunter zum Beispiel gefälschte Pornographie. Doch sogar in diesem Bereich gibt es Anwendungen wie DeepNude, die es ermöglichen, auf Bildern die Kleidung von Frauen ohne ihre Zustimmung zu entfernen, ähnlich wie im von Dibbell beschriebenen Beispiel für virtuellen sexuellen Missbrauch. Gefälschte Pornographie ist oft traumatisch für die Opfer – ein Beispiel ist die australische Studentin Noelle Martin, deren Fotos gestohlen und für sexuell explizite Videos missbraucht wurden –, und es gelingt trotz größter Anstrengungen nicht, eine Löschung der ehrenrührigen Fälschungen durchzusetzen.
Deepfakes mit politischem Inhalt sind bisher überwiegend satirischer Natur und werden als Fälschungen verstanden. Aber böswillige Akteure können Videos erzeugen, die politische Gegner bloßstellen und dieses schädliche Bild in den sozialen Medien verstärken, was sich bei Wahlen nachteilig auf betroffene Politiker auswirken könnte. Im vergangenen Herbst wurde in einem Artikel in der The New York Times beschrieben, wie der Kongressabgeordnete Steve Scalise ein heimtückisches manipuliertes Video gepostet hatte, in dem zu sehen war, wie Joe Biden in einer Diskussion eine falsche Position bezog; allerdings handelte es sich dabei nicht um ein technisch anspruchsvolles Deepfake, sondern um ein Video, das anhand eher rudimentärer Techniken erzeugt worden war.
Tatsächlich sind einfachere Formen der Manipulation ebenfalls eine Bedrohung. Joan Donovan und Britt Paris haben den Begriff „Cheapfakes“ geprägt, um Videos zu beschreiben, bei denen mit Täuschungsabsicht einfache Bearbeitungstechniken wie Beschleunigung, Verlangsamung, Schnitt und Neukontextualisierung vorhandener Aufnahmen eingesetzt werden. Beispielsweise ist ein Video, auf dem Nancy Pelosi, die Sprecherin des Repräsentantenhauses, betrunken zu sehen ist, ein Cheapfake. Derzeit ist diese Kategorie der Desinformation noch das größere Problem, aber nach Einschätzung von Sam Gregory von WITNESS wird sich das ändern, sobald die Erzeugung von Deepfakes leichter wird.
Bilder können eine wirksame und positive Kraft sein, die eingesetzt werden kann, um Verantwortliche für Fehlverhalten zur Rechenschaft zu ziehen, wie David Rand erklärt, ein Professor für Management und Kognitionswissenschaft am MIT. „Eine Sorge ist, dass Deepfakes, wenn wir uns daran gewöhnen, die Eignung von Bildern untergraben werden, Übeltäter für ihre Vergehen zur Rechenschaft zu ziehen, weil solche Bilder dann als Fälschungen abgetan werden können.“ Angesichts der Black Lives Matter-Proteste setzte die republikanische Kongressabgeordnete Winnie Heartstrong aus Missouri einen Tweet ab, in dem sie behauptete, die Aufnahmen von George Floyds Tod seien eine Fälschung, die „anhand von Deepfake-Technologie“ erzeugt worden sei, „digitale Kompositvideos von zwei oder mehr realen Personen“.
Stellen wir uns eine Gesellschaft vor, in der niemand irgendwelchen Informationen vertraut, in der jeder Beweis als Fälschung zurückgewiesen und alle Vorwürfe glaubwürdig bestritten werden können? Der schlimmste Fall wäre eine Dystopie. Es hängt alles von uns und unserer Bereitschaft ab, uns unsere eigenen Bestätigungsfehler bewusst zu machen. „Wir sind der Fehler im Programmcode“, erklärte Danielle Citron, Rechtsprofessorin an der Boston University, im Gespräch mit Scientific American. „Wir haben all diese Studien … darüber, dass wir etwas selbst dann glauben, wenn wir es als Lüge erkennen, sofern es unsere eigenen Überzeugungen bestätigt.“ Als der CNN-Reporter Donie O'Sullivan Trump-Anhängern zeigte, dass einige Biden-Videos gefälscht waren, erwiderte einer von ihnen gelassen: „Sie bezeichnen es als gefälschtes Video. Aber in Wahrheit ist es ein Meme.“
Um Desinformation in den Medien bekämpfen zu können, bedarf es eines gemeinsamen Bekenntnisses zu den Menschenrechten und zur Menschenwürde – dies ist Voraussetzung für die Beseitigung zahlreicher gesellschaftlicher Missstände einschließlich böswilliger Deepfakes. Neben einem solchen Bekenntnis gibt es verschiedene billige und wirksame Methoden, der Desinformation entgegenzuwirken: Technologien zur Bekämpfung, Rechtsvorschriften und öffentliche Bewusstseinsbildung. Bekämpfungstechnologien sind wichtig und ihre Existenz wirkt beruhigend, aber sie sind kein Allheilmittel. Digitale Forensiker wie Siwei Lyu von der State University of New York in Buffalo haben Algorithmen entwickelt, die digitale Spuren finden können. Aber selbst Lyu räumt ein, dass diese Technologie nicht vollkommen zuverlässig ist. Und wann immer ein Algorithmus entwickelt wird, der Deepfakes aufspüren kann, werden Programmierer bessere Techniken entwickeln, um diesen Algorithmus zu umgehen.
Ein "Fridays for Future"-Protest in Deutschland: Die Polarisierung darüber, was eine Tatsache ist und was nicht, scheint auf einem Allzeithoch zu sein | Foto: Mika Baumeister / Unsplash
Rechtsvorschriften können ebenfalls einen Beitrag leisten. In Texas und Kalifornien ist es illegal, ein Deepfake mit der Absicht zu produzieren, einem politischen Kandidaten zu schaden oder eine Wahl zu beeinflussen. Das ist ein Anfang. Es kommt auch darauf an, wie gut die Öffentlichkeit die Funktionsweise der Medien versteht. „Wer die Medien sehr kritisch konsumiert, dürfte weniger anfällig sein“, erklärt Nina Jankowicz, die sich am Wilson Center mit Desinformation beschäftigt. Beim Medienkonsum hilft es, die Quellen beurteilen zu können, die Querverweise zu prüfen oder nach faktischen Fehlern Ausschau zu halten. Genau diese Entmystifizierung der Deepfake-Technologie ist das Ziel von In Event of Moon Disaster.
Es lohnt sich, darauf hinzuweisen, dass Deepfakes auch ein Werkzeug in einer Reihe von Innovationen sind, die von Granville Woods' Telegrafie über Photoshop bis zu den synthetischen Medien reichen. Medientechnologien tragen dazu bei, die Verbindungen zwischen uns aufrechtzuerhalten. Sie können für Aktivismus genutzt werden. Sie können für pädagogische Kunst eingesetzt werden.
Wenn sich gesellschaftliche Gräben auftun, werden Medienformen zu Munition. Desinformation wird eingesetzt, um Unterdrückung, Spaltung und Gewalt zu schüren. Jeder von uns hat die Aufgabe, sich der Grenzen seines eigenen Verständnisses und der Unfähigkeit der Gesellschaft bewusst zu werden, ihre gemeinsame Aufgabe zu erfüllen, allen ihren Mitgliedern Gerechtigkeit zu garantieren.
Die Gefahr ist nicht die Technologie. Die Gefahr sind wir.
Dieser Beitrag erschien ursprünglich online im Oktober 2020. Er wird hier mit freundlicher Genehmigung des Boston Globe und der Autoren wiederveröffentlicht.
Das Projekt mit dem Titel In Event of Moon Disaster, das von den beiden Regisseurinnen Francesca Panetta und Halsey Burgund im Auftrag des MIT Center for Advanced Virtuality geleitet wurde (D. Fox Harrell leitet das Zentrum, Pakinam Amer ist ein MIT-Forscher), liefert eine alternative Geschichte der Mondlandung. Dazu wurde Filmmaterial aus dem NASA-Archiv bearbeitet und mit anhand künstlicher Intelligenz erzeugten synthetischen Videoaufnahmen einer Nixon-Ansprache kombiniert. Ergänzt wurde die Arbeit durch Material, das der Entmystifizierung von Deepfakes dient.
Nach der Veröffentlichung unseres Videos sahen es sich innerhalb weniger Wochen fast eine Million Menschen an. Es wurde auf Social-Media-Plattformen und in Online-Communitys in Umlauf gebracht und veranschaulichte, wie leicht miteinander kombinierte synthetische Medien das menschliche Auge täuschen können und wie groß die Fähigkeit der sozialen Medien ist, menschliche Augen zu erreichen. Die Zahlen waren aufschlussreich: Ein Quiz auf der Website zeigte, dass 49 Prozent der Personen, die sich den Film angesehen hatten, irrtümlich glaubten, Nixons synthetisch verändertes Gesicht sei real; nicht weniger als 65 Prozent hielten seine Stimme für echt.
Als die Deepfakes vergangenes Jahr ins Rampenlicht rückten, kündigten einige Medien in angsterfüllten Schlagzeilen das „Ende der Nachrichten“ und einen „Zusammenbruch der Realität“ an. Aber wie besorgt müssen wir tatsächlich sein? Die Manipulation der Medien, sei es zu kreativen Zwecken oder mit heimtückischen Absichten, ist nicht neu. Die Gesellschaft bringt seit langem Medien hervor, die in der Lage sind, Schaden anzurichten. Nehmen wir beispielsweise einen 1993 in Village Voice erschienenen Artikel mit dem Titel „A Rape in Cyberspace“ (Eine Vergewaltigung im virtuellen Raum), in dem Julian Dibbell über eine neuartige traumatische Erfahrung berichtete: Der Avater einer Frau war im Internet in einem Mehrspieler-Spiel vergewaltigt worden. Lewis D. Wheeler lässt sein Gesicht für das Projekt "In Event of Moon Disaster" abbilden. | Foto: MIT Center for Advanced Virtuality, 2019 Es war eine andere Technologie, aber die gravierenden Auswirkungen auf das menschliche Verhalten und die Angst angesichts der Vermengung von virtueller und realer Welt ähnelten dem, was wir heute mit den Deepfakes erleben. Es kommt nicht allein auf die Technologie an, sondern auf die Art, wie wir ihre Produkte weitergeben, betrachten, regulieren und an ihren Wahrheitsgehalt glauben, wenn wir daran glauben wollen – selbst wenn wir wissen, dass sie gefälscht sind.
Die Ökologie der Deepfake-Medien: Der gegenwärtige Zustand
Im Juni 2019 waren weltweit rund 49.000 Deepfake-Videos in Umlauf, die mehr als 134 Millionen Mal angesehen worden waren. 96 Prozent dieser Videos wurden als „nicht folgenreich“ eingestuft, darunter zum Beispiel gefälschte Pornographie. Doch sogar in diesem Bereich gibt es Anwendungen wie DeepNude, die es ermöglichen, auf Bildern die Kleidung von Frauen ohne ihre Zustimmung zu entfernen, ähnlich wie im von Dibbell beschriebenen Beispiel für virtuellen sexuellen Missbrauch. Gefälschte Pornographie ist oft traumatisch für die Opfer – ein Beispiel ist die australische Studentin Noelle Martin, deren Fotos gestohlen und für sexuell explizite Videos missbraucht wurden –, und es gelingt trotz größter Anstrengungen nicht, eine Löschung der ehrenrührigen Fälschungen durchzusetzen.
Deepfakes mit politischem Inhalt sind bisher überwiegend satirischer Natur und werden als Fälschungen verstanden. Aber böswillige Akteure können Videos erzeugen, die politische Gegner bloßstellen und dieses schädliche Bild in den sozialen Medien verstärken, was sich bei Wahlen nachteilig auf betroffene Politiker auswirken könnte. Im vergangenen Herbst wurde in einem Artikel in der The New York Times beschrieben, wie der Kongressabgeordnete Steve Scalise ein heimtückisches manipuliertes Video gepostet hatte, in dem zu sehen war, wie Joe Biden in einer Diskussion eine falsche Position bezog; allerdings handelte es sich dabei nicht um ein technisch anspruchsvolles Deepfake, sondern um ein Video, das anhand eher rudimentärer Techniken erzeugt worden war.
Tatsächlich sind einfachere Formen der Manipulation ebenfalls eine Bedrohung. Joan Donovan und Britt Paris haben den Begriff „Cheapfakes“ geprägt, um Videos zu beschreiben, bei denen mit Täuschungsabsicht einfache Bearbeitungstechniken wie Beschleunigung, Verlangsamung, Schnitt und Neukontextualisierung vorhandener Aufnahmen eingesetzt werden. Beispielsweise ist ein Video, auf dem Nancy Pelosi, die Sprecherin des Repräsentantenhauses, betrunken zu sehen ist, ein Cheapfake. Derzeit ist diese Kategorie der Desinformation noch das größere Problem, aber nach Einschätzung von Sam Gregory von WITNESS wird sich das ändern, sobald die Erzeugung von Deepfakes leichter wird.
Warum die Ökologie der Deepfake-Medien wichtig ist
Bilder können eine wirksame und positive Kraft sein, die eingesetzt werden kann, um Verantwortliche für Fehlverhalten zur Rechenschaft zu ziehen, wie David Rand erklärt, ein Professor für Management und Kognitionswissenschaft am MIT. „Eine Sorge ist, dass Deepfakes, wenn wir uns daran gewöhnen, die Eignung von Bildern untergraben werden, Übeltäter für ihre Vergehen zur Rechenschaft zu ziehen, weil solche Bilder dann als Fälschungen abgetan werden können.“ Angesichts der Black Lives Matter-Proteste setzte die republikanische Kongressabgeordnete Winnie Heartstrong aus Missouri einen Tweet ab, in dem sie behauptete, die Aufnahmen von George Floyds Tod seien eine Fälschung, die „anhand von Deepfake-Technologie“ erzeugt worden sei, „digitale Kompositvideos von zwei oder mehr realen Personen“.
Stellen wir uns eine Gesellschaft vor, in der niemand irgendwelchen Informationen vertraut, in der jeder Beweis als Fälschung zurückgewiesen und alle Vorwürfe glaubwürdig bestritten werden können? Der schlimmste Fall wäre eine Dystopie. Es hängt alles von uns und unserer Bereitschaft ab, uns unsere eigenen Bestätigungsfehler bewusst zu machen. „Wir sind der Fehler im Programmcode“, erklärte Danielle Citron, Rechtsprofessorin an der Boston University, im Gespräch mit Scientific American. „Wir haben all diese Studien … darüber, dass wir etwas selbst dann glauben, wenn wir es als Lüge erkennen, sofern es unsere eigenen Überzeugungen bestätigt.“ Als der CNN-Reporter Donie O'Sullivan Trump-Anhängern zeigte, dass einige Biden-Videos gefälscht waren, erwiderte einer von ihnen gelassen: „Sie bezeichnen es als gefälschtes Video. Aber in Wahrheit ist es ein Meme.“
Was wir tun können
Um Desinformation in den Medien bekämpfen zu können, bedarf es eines gemeinsamen Bekenntnisses zu den Menschenrechten und zur Menschenwürde – dies ist Voraussetzung für die Beseitigung zahlreicher gesellschaftlicher Missstände einschließlich böswilliger Deepfakes. Neben einem solchen Bekenntnis gibt es verschiedene billige und wirksame Methoden, der Desinformation entgegenzuwirken: Technologien zur Bekämpfung, Rechtsvorschriften und öffentliche Bewusstseinsbildung. Bekämpfungstechnologien sind wichtig und ihre Existenz wirkt beruhigend, aber sie sind kein Allheilmittel. Digitale Forensiker wie Siwei Lyu von der State University of New York in Buffalo haben Algorithmen entwickelt, die digitale Spuren finden können. Aber selbst Lyu räumt ein, dass diese Technologie nicht vollkommen zuverlässig ist. Und wann immer ein Algorithmus entwickelt wird, der Deepfakes aufspüren kann, werden Programmierer bessere Techniken entwickeln, um diesen Algorithmus zu umgehen.
Ein "Fridays for Future"-Protest in Deutschland: Die Polarisierung darüber, was eine Tatsache ist und was nicht, scheint auf einem Allzeithoch zu sein | Foto: Mika Baumeister / Unsplash
Rechtsvorschriften können ebenfalls einen Beitrag leisten. In Texas und Kalifornien ist es illegal, ein Deepfake mit der Absicht zu produzieren, einem politischen Kandidaten zu schaden oder eine Wahl zu beeinflussen. Das ist ein Anfang. Es kommt auch darauf an, wie gut die Öffentlichkeit die Funktionsweise der Medien versteht. „Wer die Medien sehr kritisch konsumiert, dürfte weniger anfällig sein“, erklärt Nina Jankowicz, die sich am Wilson Center mit Desinformation beschäftigt. Beim Medienkonsum hilft es, die Quellen beurteilen zu können, die Querverweise zu prüfen oder nach faktischen Fehlern Ausschau zu halten. Genau diese Entmystifizierung der Deepfake-Technologie ist das Ziel von In Event of Moon Disaster.
Es lohnt sich, darauf hinzuweisen, dass Deepfakes auch ein Werkzeug in einer Reihe von Innovationen sind, die von Granville Woods' Telegrafie über Photoshop bis zu den synthetischen Medien reichen. Medientechnologien tragen dazu bei, die Verbindungen zwischen uns aufrechtzuerhalten. Sie können für Aktivismus genutzt werden. Sie können für pädagogische Kunst eingesetzt werden.
Wenn sich gesellschaftliche Gräben auftun, werden Medienformen zu Munition. Desinformation wird eingesetzt, um Unterdrückung, Spaltung und Gewalt zu schüren. Jeder von uns hat die Aufgabe, sich der Grenzen seines eigenen Verständnisses und der Unfähigkeit der Gesellschaft bewusst zu werden, ihre gemeinsame Aufgabe zu erfüllen, allen ihren Mitgliedern Gerechtigkeit zu garantieren.
Die Gefahr ist nicht die Technologie. Die Gefahr sind wir.
Dieser Beitrag erschien ursprünglich online im Oktober 2020. Er wird hier mit freundlicher Genehmigung des Boston Globe und der Autoren wiederveröffentlicht.