Wahrheit und Lügen  Noch tiefer als Fake

Deep Fake Illustration: © Martina Hamouzová

Falschmeldungen erreichen allmählich ein neues und immer perfekteres Ausmaß. Von erfundenen Informationen und konspirativen Theorien über bearbeitete Fotos bis hin zu Videos, in denen bedeutende Politiker glaubwürdig von etwas sprechen, was sie in Wirklichkeit nie gesagt haben. Nach den Fake News erreicht uns nun die Phase der „tiefen Lügen“ – Deepfake.
 

Es ist nur eine Frage der Zeit, wann sich auch in der Tschechischen Republik bearbeitete oder komplett gefälschte Videos von tschechischen Politikern oder anderen Personen des öffentlichen Lebens in den sozialen Netzwerken und konspirativen Webseiten verbreiten werden.
 
Darauf, wie es durch neue Technologien immer einfacher wird, Inhalte zu manipulieren, hat im April 2018 der amerikanische Komiker Jordan Peele als einer der Ersten aufmerksam gemacht.
 
Mit Hilfe eines Computerprogramms hat er seinen Mund buchstäblich in das Gesicht von Barack Obama eingefügt und ihn dann dazu „gezwungen“ Dinge zu sagen, die er so nie selbst gesagt hat – zum Beispiel sich niveaulos über Donald Trump zu äußern.
 
 
Am Ende des Videos konstatiert Jordan Peele selbst, dass wir in komplizierten Zeiten leben und uns dadurch schützen können, indem wir Informationen bei glaubwürdigen Nachrichtenquellen einholen.
 
Das Thema wurde anschließend von den amerikanischen Medien übernommen und auch die breite Öffentlichkeit konnte sich davon überzeugen, wie schwer es ist und sein wird, die Realität und bewusst bearbeitete oder speziell gestaltete Videos zu unterscheiden.

Schnell und wütend

Über die neue Ära von Falschinformationen sprach HlídacíPes.org mit Thomas Hanson, einem ehemaligen amerikanischen Diplomaten, der jetzt am Alworth Institute for International Studies der University of Minnesota Duluth arbeitet und sich dem Thema Falschmeldungen widmet. Er war auf diplomatischen Posten im ehemaligen Ostdeutschland, der früheren Sowjetunion, in Norwegen und Frankreich tätig.
 
Das Phänomen Deepfake kam seiner Meinung nach in den letzten paar Jahren zum Vorschein, hat sich aber seit Mitte 2017 deutlich verstärkt. „Das hängt allgemein mit dem Anstieg von Fake News zusammen, in Amerika außerdem damit, dass gerade der russische Einfluss auf die Präsidentschaftswahl 2016 bestätigt wird“, sagt Hanson.
 
Der Bereich Deepfake schreitet schnell voran. Wie im Bereich der Entwicklung, so auch in der Aufdeckung dieser falschen Erzeugnisse. „Ich befürchte aber, dass wir uns in einer Situation befinden, in der die Aufdeckungen nicht mit der Geschwindigkeit Schritt halten kann, in der Instrumente zur Erzeugung von Deepfakes aufkommen werden“, merkt Hanson an.
 
Sein Programm kämpft gegen die Falschinformationen, die das Potenzial haben, die öffentliche Stimmung wesentlich zu beeinflussen und Unruhen sowie Verwirrung und Angst hervorzurufen, die selbst schon einige Regierungen haben. In den USA befasst sich auch die Defense Advanced Research Projects Agency (DARPA – Organisation für Forschungsprojekte der Verteidigung) mit dem Thema, die für die Entwicklung neuer Verteidigungstechnologien verantwortlich ist.
 
Auf der anderen Seite gibt es das System der künstlichen Intelligenz GAN (Generative adversarial networks), welches realistisch aussehende, falsche Fotos erzeugen kann sowie computergenerierte, menschliche Gesichter, die von denen realer Personen nicht zu unterscheiden sind. So können sie in allen möglichen Situationen und Kontexten abgebildet werden.
 
„Neuerdings lassen sich so auch realistische Videos erstellen. Es ist extrem schwer zu erkennen, ob es sich um einen Fake handelt“, betont Hanson.
 
„Es ist wirklich ein großes Thema. Besonders gefährlich sind diese Deepfake-Informationen in Krisen- und Bedrohungssituationen, wenn sie es schaffen, die öffentliche Debatte zu beeinflussen und die Realität völlig zu verdrehen“, fügt er hinzu.

Nachrichten aus dem Kaninchenbau

Die Auswirkungen können weitreichend sein. „Bereits jetzt sehen wir, wie es verschiedenen konspirativen Theorien und Falschmeldungen gelingt, das Vertrauen der Menschen in die traditionellen Medien zu zerstören. Mit Deepfakes kann das noch sehr viel schlimmer werden. Sie bringen die Fake News auf ein komplett neues Level. Das ist kein Spiel, auch nicht die Sache der Medien, des Internets und der sozialen Netzwerke, das ist bereits Sache der nationalen Sicherheit“, sagt Hanson. Seiner Meinung nach geht es auch um das Vertrauen der Menschen in die Politik als solche.
 
Eine Lösung dafür könnte in der internationalen Zusammenarbeit liegen, ähnlich wie bereits jetzt Regierungen im Fall von Cyberattacken und Informationssicherheit zusammenarbeiten.
 
„Die Herkunft der Deepfakes aufzuspüren wird schwierig, das ist wie ein Kaninchenbau, der immer tiefer und tiefer und verwinkelter wird. Ich gehe davon aus, dass das in den kommenden Jahren ein großes Thema sein wird“, sagt Hanson. 
 
Ein wesentliches Problem stellt außerdem die Tatsache dar, dass direkt aus Regierungsquellen falsche bzw. bearbeitete Videos nach deren Vorstellungen stammen können. Und es geht dabei nicht nur um Russland, das sich die Methoden eines Cyberkriegs gänzlich angeeignet hat.
 
Im November 2018 beispielsweise hat die Pressesprecherin des Weißen Hauses, Sarah Senders, in den sozialen Netzwerken ein Video geteilt, wo sich der CNN-Reporter Jim Acosta auf Donald Trumps Pressekonferenz wehrt, als ihm eine Mitarbeiterin des Weißen Hauses das Mikrofon entziehen möchte.
 
Das Video machte einen authentischen Eindruck, in Wahrheit allerdings wurde es bearbeitet – die Abspielgeschwindigkeit ist so erhöht worden, dass die Reaktion des Journalisten viel aggressiver wirkte, als sie es in Wirklichkeit war. Das Video wirkt so, als ob sich der Journalist der Dame heftig widersetzte. Die Originalaufnahme zeigt, wie Acosta dem Versuch, ihm das Mikrofon abzunehmen, ausweicht. Im Video, was durch Sprecherin Sanders veröffentlicht wurde, fehlt auch seine mündliche Reaktion: „Verzeihung, Madame.“
 
Keinesfalls zufällig wurde das Video als Erstes von dem bekannten amerikanischen Verfechter und Verbreiter konspirativer Theorien, Paul Joseph Watson, vom äußerst rechten Internetportal Infowars geteilt.
 
Das Video begann sich viral zu verbreiten, innerhalb von zwei Tagen wurde es sieben Millionen Mal angesehen.
 
Im Video der Agentur Associated Press analysiert der unabhängige Spezialist für bearbeitete Videos Abba Shapiro die Art und Weise, wie das Video hergestellt worden ist:
 

Jonathan Albright, der Forschungsdirektor des Tow Center for Digital Journalism der Columbia University ist davon überzeugt, dass ähnlich bearbeitete Videos ein noch größeres Risiko für die Verbreitung von Desinformationen darstellen als komplett gefälschte Videos.
 
„Wenn auch nur ein Funken Wahrheit in einem bearbeiteten oder ausgedachten Inhalt steckt, steigt die Wahrscheinlichkeit, dass die Leute solche Nachrichten viel eher glauben. Auch wenn die Wahrheit so auf die Folter gespannt wird, der Inhalt wirkt real“, wird Albright von der amerikanischen Wochenzeitung Star Tribune zitiert.

Auf Regierungsebene

Nach dem ehemaligen amerikanischen Diplomaten Thomas Hanson geht es „um ein reales Gift, das sowohl von Einzelpersonen als auch durch einige Regierungen verbreitet werden wird“.
 
Eine Methode, wie man sich vor Fake News und darüber hinaus vor Deepfakes schützen kann, hat Jordan Peele bereits angedeutet – die Quellen verfolgen, von denen die Informationen stammen, sie überprüfen, umsichtig sein. Das Problem besteht allerdings darin, dass auch die vertrauenswürdigen Medien getäuscht werden können.
 
Die Vorsicht, Skepsis und das Misstrauen dem gegenüber, was wir lesen und sehen, birgt jedoch weitere Gefahren in sich.
 
„Wenn Sie in die Situation kommen, in der Sie alles anzweifeln, was Sie sehen und hören, geht das Vertrauen komplett verloren. Und wir müssen das Vertrauen in die Medien, die Demokratie und die Wahrheit bewahren“, sagt Hanson.
 
Seiner Meinung nach handelt es sich um einen unumkehrbaren Prozess, dass es zu einer neuen Phase der Fake News kommt, die mit der technischen Entwicklung in Verbindung steht. „Es wird notwendig sein, das nicht individuell, sondern global zu lösen, ähnlich wie heute schon gegen Cyberbedrohungen gekämpft wird“, wiederholt Hanson.

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.

Empfehlungen der Redaktion

Failed to retrieve articles. Please try again.

Meistgelesen

Failed to retrieve articles. Please try again.