„WIR MÜSSEN UNS ALS GESELLSCHAFT AN MANIPULATION GEWÖHNEN“

Im Oktober 2023 trafen sich zwölf Expert*innen aus Ostasien und Europa, um sich über den wirksamen Umgang mit Fehlinformationen und Hassrede im Netz auszutauschen. Dabei stellten sie auch Lösungsansätze aus ihren Regionen vor. 

Der Erfahrungsaustausch über den Umgang mit Fehl- und Desinformation kann inspirieren. Das Bild zeigt eine Gruppe von Menschen, die an ihren Laptops arbeiten. Illustration: Yukari Mishima. © bpb/Goethe-Institut; Illustration: Yukari Mishima




Während die Verbreitung von Fehlinformationen und Verschwörungserzählungen immer schon Bestandteil von Gesellschaften war, hat das Aufkommen des Internets und der Aufstieg sozialer Medien die Art und Weise, wie Nachrichten verbreitet und konsumiert werden, fundamental verändert. Gegenwärtige Entwicklungen im Bereich der generativen Künstlichen Intelligenz, und nutzungsfreundliche Tools für die eigene Medienproduktion haben die Geschwindigkeit, mit der Informationen verbreitet werden, zusätzlich beschleunigt. In vielen Gesellschaften haben Gerüchte, Falschinformationen und das Aufstacheln zu Hass gesellschaftliche Spaltungen vertieft und zu zunehmender Polarisierung geführt. 

Um diese Dynamiken besser zu verstehen und herauszuarbeiten, wie Interventionen im Umgang mit Fehlinformation und Hassrede aussehen, haben das Goethe-Institut und die Bundeszentrale für politische Bildung am 28. Oktober 2023 die Onlinekonferenz „Facts & Contexts Matter: Medienkompetenz in Ostasien und Europa“ organisiert. Dabei diskutierten Expert*innen aus Korea, Japan, Taiwan und Deutschland wie die Zivilgesellschaft, Journalist*innen und Regulierapparate mit dem Phänomenbereich in ihren Regionen umgehen.   

Dynamiken der Fehl- und Desinformation in Ostasien und Europa

In den letzten Jahren ist das Interesse die „Bedrohung“ durch Fehl- und Desinformationen zu erforschen, weltweit gewachsen. In dem Auftaktgespräch waren sich Masato Kajimoto, Universität Hongkong, und Jeanette Hofmann, Freie Universität Berlin, einig, dass die tatsächliche Bedrohung durch Fehl- und Desinformation zum Teil übertrieben dargestellt wird und ihr die empirische Grundlage fehlt. „Wir gehen oft davon aus, dass Fehlinformationen ein Problem der Internetplattformen sind, obwohl viele der falschen und irreführenden Informationen von oben nach unten fließen – ausgehend von der politischen Elite“, sagte Hofmann und Kajimoto fügte hinzu: „Fehlinformationen sind eher ein Symptom von Polarisierung, Ungleichheit, Hass, Misstrauen und anderen Problemen – nicht die Ursache.“ 

Es sei schwierig, die direkte Auswirkung von Fehl- und Desinformationen auf das Wahlverhalten oder auf Hassverbrechen empirisch zu belegen. Wichtig war beiden Expert*innen jedoch zu betonen, welchen Einfluss die Gruppenidentität auf das Teilen von irreführenden Informationen hat: „Man teilt Informationen, um zu zeigen, zu welcher politischen Gruppe man gehört, und nicht unbedingt, weil man sie glaubt“, sagte Hofmann. „Wenn jeder sich des Herdenverhaltens bewusst wäre, könnte die Situation besser sein. Wir sollten auch das Wissen über den Einfluss von Gruppenidentitäten weitergeben und uns nicht nur auf eine kurze, technologiezentrierte Wissensvermittlung konzentrieren,“ sagt Kajimoto, der die Vermittlung von Medienkompetenz befürwortet, die über das Hinterfragen und Prüfen der Fakten hinausgeht. „Wir sollten uns darauf fokussieren, glaubwürdige und qualitativ hochwertige Inhalte zu identifizieren und zu schaffen.“ Genau das versucht der Journalismus-Professor mit dem südostasiatischen Medienkompetenznetzwerk Asian Network of News and Information Educators (ANNIE) und der von seinen Studierenden geleiteten Nachrichtenredaktion Annie Lab seit 2019 umzusetzen.  

Während Hofmann betonte, dass qualitativ hochwertige Medieninhalte zu den besten und wichtigsten Mitteln gehören, um Fehl- und Desinformation zu bekämpfen, wies Kajimoto auf den Mangel an nicht-englischsprachigen, qualitativ hochwertigen Informationen hin. Das könne besonders in Zeiten einer weltweiten Pandemie problematisch sein. Wo qualitativ hochwertige Informationen fehlen, hätten Gerüchte mehr Platz, sich zu verbreiten. 
 
Jeanette Hofmann, Freie Universität Berlin, und Masato Kajimoto, Universität Hongkong, diskutierten im Auftaktgespräch der Konferenz über die Verbreitung von Fehl- und Desinformation in Europa und Asien.

Wie verändert generative KI Informationsumgebungen und Maßnahmen zur Förderung von Medienkompetenz?

Modelle der Künstlichen Intelligenz spiegeln die Vorschriften und ethischen Standards der Orte wider, an denen die Systeme erdacht werden: „Derzeit entsprechen unsere KI-Modelle zum Großteil den Anforderungen von US-amerikanischen Unternehmen“, sagte Antonio Krüger, CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (German Research Center for Artificial Intelligence), „und chinesische Modelle erfüllen die Anforderungen der chinesischen Regulierungsbehörde.“  

Krüger sprach in seinem Kurzvortrag über die Macht von generativer KI und über Möglichkeiten Informationen eindeutiger zu gestalten, zum Beispiel indem Wasserzeichen in Fotos und Videos eingefügt werden, damit zwischen menschlichen und künstlich generierten Inhalten leichter unterschieden werden kann. Die anderen Diskussionsteilnehmer*innen stellten lokale Anwendungen mit generativer KI vor. Der in Südkorea beliebte Chatbot Iruda, der für die Verbreitung von Hassrede nach seinem Launch im Dezember 2020 stark kritisiert worden war, wurde durch die Einführung eines generativen KI-Modells „gezähmt“. „Die erste Version von Iruda wurde mit 100 Millionen wiederhergestellten Chats des „Science of Love Service“ (einer Plattform für Beziehungstipps) trainiert. Ihre Hassrede stammte aus Chatverläufen von Menschen“, erzählte Sungook Hong, Seoul National University. Er untersuchte, wie Iruda sich verändert hat und erklärte, wie das Tech-Start-up Scatter Lab, in Zusammenarbeit mit dem ICT Policy Institute und den User*innen von Iruda ethische Prinzipien aufgestellt hat. 

Nutzen Sie künstliche Netzwerke, um die neuronalen Netzwerke der Menschen anzuregen – das war die Botschaft von Isabel Hou, der Generalsekretärin der Non-Profit-Organisation Taiwan AI Academy, die das Ziel verfolgt, Interessenvertreter*innen aus der Industrie über Trends der KI-Technologie weiterzubilden. In ihrer Rede stellte sie den Chatbot Cofacts vor, dem Nutzer*innen irreführende Inhalte schicken können und der wiederum die Inhalte auf seinen Wahrheitsgehalt überprüft. Er greift unter anderem auf eine Datenbank zurück, die von aktiven User*innen durch Crowdsourcing zusammengetragen wurden. Hou betonte, dass generative KI allein noch keine Wunderwaffe sei: „Ermöglichen Sie den Leser*innen, ihre digitale Kompetenz zu stärken, damit sie ihre eigenen Entscheidungen treffen können.“ Krüger fügte hinzu: „Wir müssen uns als Gesellschaft an Manipulation gewöhnen – und neue Tools lernen.“ Tools, die von einem breiten Spektrum von Interessenvertreter*innen in ihrer Gestaltung beeinflusst werden. 
 
Im zweiten Panel ging es um die Herausforderungen von generativer KI. Neben der Beschreibung bestehender Trends stellten die Expert*innen lokale Anwendungen vor - wie den koreanischen Chatbot Iruda und das taiwanesische Chatbot-Projekt Cofacts.

Politik und Ideologie: Plattformregulierung in Ostasien und Europa 

Am 25. August 2023 trat das EU-Gesetz über digitale Dienste (Digital Services Act, DSA) offiziell in Kraft. Tech-Riesen wie Google, Meta oder Amazon müssen nun für die Inhalte, die auf ihren Plattformen gepostet werden, höhere Standards für die Rechenschaftspflicht erfüllen und ihren Nutzer*innen Feedback-Optionen bieten, mit denen sie problematische Inhalte melden können. Mauritius Dorn vom Thinktank Institute of Strategic Dialogue erklärte, wie der DSA funktioniert und erzählte von der Genese des Gesetzes, das einen besseren Schutz im Internet gewährleisten soll. Er sprach auch über problematische Bereiche: „Wir müssen uns bewusst machen, auf welche Elemente der Cyber-Diplomatie wir uns als Europäische Union konzentrieren.“ Jeanette Hofmann, Freie Universität Berlin, die diese Runde moderierte, ergänzte: „Das Problem ist, dass die Nationalstaaten selber definieren können, welche Inhalte illegal sind, und damit auch, welche Inhalte von den Plattformen entfernt werden müssen.“ Das ist besonders kritisch in Staaten, wo die Gerichte nicht unabhängig sind. Der DSA könnte sich in EU-Staaten, die das Recht auf freie Meinungsäußerung einschränken wollen, als starkes Machtinstrument erweisen. 
 
Während Europa mit dem DSA große Plattformen stärker regulieren möchte, setzt Japan u.a. auf die Arbeit von Nichtregierungsorganisationen bei der Bekämpfung von Fehl- und Falschinformationen. Matthias Dorn, ISD, und Daisuke Furuta, JFC, erläuterten im dritten Panel warum und welche Vor- und Nachteile (Nicht-)Regulierung mit sich bringen.

Für Daisuke Furuta, Chefredakteur des Japan FactCheck Center könnte das einer der Gründe sein, warum die japanische Regierung keine Regulierung von Plattformen anstrebt. „In Japan hat der Arbeitskreis für Online-Dienste des Ministeriums für Innere Angelegenheiten und Kommunikation dem Privatsektor empfohlen, Fehlinformationen zu bekämpfen, statt sie mit Gesetzen zu regulieren.“ Auch sollen Organisationen mit einer „neutralen Führungsstruktur“ gestärkt werden. „Natürlich kommen private Faktencheck-Organisationen nicht alleine gegen große Technologie-Plattformen an“, bemerkte Furuta und erwähnte, dass ein gewisser Grad an Regulierung notwendig sei. „Allerdings ist das für unsere jetzige Regierung keine Priorität.“ Insgesamt scheint Japan von Fehl- und Desinformation weniger betroffen zu sein als zum Beispiel sein Nachbar Taiwan, wo Furutas Fact Check Center enge Verbindungen mit Organisationen hat, die ähnliche Ziele verfolgen: „Die meisten Faktencheck-Tools stammen aus westlichen Ländern, aber uns fehlen chinesischsprachige Tools. Taiwan steht an der Spitze derer, die an ihrer Entwicklung arbeiten.“ Er findet, es werde mehr Wissen über „nichtwestliche“ Plattformen wie dem chinesischen Microblogging-Dienst Weibo oder die japanische Instant Messaging App LINE benötigt, damit Fehlinformationen oder Hassrede besser bekämpft werden können. 

Bildergalerie: Ein Blick in vier Länder: Wie umgehen mit Fehlinformationen und Hassrede?

  • Die Geschichte von CCDM: Wie und warum die südkoreanische zivilgesellschaftliche Medienbeobachtungsstelle gegen Desinformation und Hassrede vorgeht © Goethe-Institut Korea/bpb
    Sookeung Jung, Vorsitzende der Citizen Coalition for Democratic Media (CCDM), sprach über die Aktivitäten von Südkoreas ältester Medienbeobachtungsstelle, die 1984 gegründet wurde, um den Übergang von der Diktatur zur Demokratie zu begleiten.
  • Desinformation und Strategien zur Förderung der Medienkompetenz in Japan © Goethe-Institut Korea/bpb
    Desinformation und Strategien zur Förderung der Medienkompetenz in Japan: Während Jun Sakamoto (oberes Bild), Hosei University, über verschiedene Maßnahmen zur Förderung von Medienkompetenz sprach, zum Beispiel in Schulen und Bibliotheken, stellte Emi Nagasawa (unteres Bild) vom Thinktank SmartNews Media Research Institute (SMRI) ein Medienkompetenzspiel und andere Aktivitäten vor.
  • Bekämpfung von Desinformation und Hassrede in Deutschland © Goethe-Institut Korea/bpb
    Bekämpfung von Desinformation und Hassrede in Deutschland: Simone Rafael von der NGO Amadeu Antonio Stiftung stellte die Aktivitäten ihrer Organisation vor, die von „digitaler Straßenarbeit“, journalistischen Aktivitäten bis hin zur Ausbildung von Multiplikator*innen reichen.
  • Aufbau eines glaubwürdigen Informationsnetzwerks in Taiwan © Goethe-Institut Korea/bpb
    Aufbau eines glaubwürdigen Informationsnetzwerks in Taiwan: Chihhao Yu, Co-Direktor der NGO Taiwan Information Research Center (IORG) beschrieb das dichte Netzwerk von verschiedenen Nichtregierungsorganisationen, die in der Forschung, im Journalismus, im Faktencheck und in der Bildung arbeiten, um Medienkompetenz zu stärken und das Vertrauen in glaubwürdige Informationsquellen auszubauen.

Globale Perspektiven für kollektive Lösungen 

Die letzte Diskussionsrunde, in der es besonders um den Zusammenhang zwischen Fehlinformation und Hassrede ging, begann mit der Frage nach der Definition. Was ist Hassrede eigentlich? „In Deutschland prägt die im Grundgesetz verankerte Bedeutung der menschlichen Würde unseren Umgang mit Hassrede“, sagte Mauritius Dorn, ISD. „In Südkorea liegt der Schwerpunkt der Definition auf Diskriminierung. Hassrede bedeutet, dass Menschen von der Mainstream-Gesellschaft ausgeschlossen werden“, fügte Sookeung Jung, Vorsitzende der Medienbeobachtungsstelle Citizen Coalition for Democratic Media (CCDM), hinzu. Isabel Hou, Taiwan AI Academy, hat den Eindruck, dass in Taiwan ein starker Fokus auf Desinformation liegt, der wiederum mit Hassrede in Verbindung gebracht werden kann – allerdings definieren die Gerichte, was Hassrede ist. Masato Kajimoto, Universität Hongkong, wies auf das Problem hin, dass die Gerichte in einigen asiatischen Ländern politisiert sind, und Dorn ergänzte, dass die Plattformen einen großen Spielraum für die Gestaltung ihrer Produkte und ihrer Unternehmenspolitik haben, weshalb es mehr Transparenz bei den Moderationsrichtlinien und dem Empfehlungssystem durch Algorithmen braucht. Der DSA versucht, diese Bemühungen zu unterstützen.  
 
Im Abschlusspanel tauschten sich die Expert*innen vor allem über die Verknüpfung von Fehlinformation und Hass aus und diskutierten Lösungsansätze.

Die Diskussionsteilnehmer*innen waren sich einig, dass man für die Bekämpfung von Hassrede eine ganzheitliche Herangehensweise benötigt. „Gesetze reichen nicht aus. Es braucht Verhaltensregeln, die direkt verbieten, dass Hassrede formuliert wird, zum Beispiel in Klassenzimmern. Interaktionsräume im Netz müssen auch so verändert werden, dass es schwerer wird, Hassrede zu verbreiten“, sagte Jung. Kajimoto skizzierte verschiedene Methoden, mit denen Lehrkräfte dieses Problem ansprechen. Manche gehen nur auf das ein, was gesagt wurde. Andere wählen einen umfassenderen Ansatz: „Beschäftigen wir uns mit der Geschichte, mit der Psychologie des Hasses, lasst uns dessen nachgehen, warum wir uns hassen.“ Die Diskussionsteilnehmer*innen merkten an, dass sich die Vermittlung von Medienkompetenz an alle Altersgruppen richten sollte. Lösungsansätze zur Bekämpfung von Hassrede erfordern Vernetzung und das Engagement der ganzen Gesellschaft. Für Dorn geht es auch darum, „Demokratien zu erneuern“ – durch neue Tools und (digitale) Räume im öffentlichen Interesse: „Wir durchleben gegenwärtig eine Vielzahl von Krisen. Darum brauchen wir Räume, in denen Menschen faktenbasierte Informationen über den Einfluss von Problemen auf ihr Leben erhalten und Fragen stellen können, ohne dass es gleich Hass und Unruhe gibt.“ 

Alles in allem zeigte die Konferenz, dass ostasiatische und europäische Länder im Umgang mit Fehlinformationen mehr gemeinsam haben als vielleicht anfänglich vermutet. 
 

Konferenzprogramm und Speaker*innen

Autorin