Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Künstliche Intelligenz und Wahlen
Es gilt, die Demokratie zu retten

Welche Information ist wahr, welche künstlich erzeugt? Der Unterschied ist immer schwerer zu erkennen, da KI-gestützte Fake News und Desinformationen sich weiter verbreiten.
Welche Information ist wahr, welche künstlich erzeugt? Der Unterschied ist immer schwerer zu erkennen, da KI-gestützte Fake News und Desinformationen sich weiter verbreiten. | Foto (Detail): © Adobe

Die gefälschte Stimme einer Politikerin, KI-gestützte Robocalls oder ein fiktiver Fernsehmoderator: Künstliche Intelligenz bietet eine Fülle neuer Möglichkeiten, Desinformationen zu streuen. In Zeiten globaler Krisen ist dies eine echte Bedrohung für die Demokratie.
 

Von Dan Gillmor

Wer die Demokratie befürwortet, hat im Jahr 2024 eine gewaltige Aufgabe vor sich: Es gilt, sie zu retten. Rund um den Erdball finden in diesem Jahr Wahlen statt. Gleichzeitig ist das System, das in den USA als „Regierung des Volkes, durch das Volk und für das Volk“ bekannt ist, zunehmend und in einem uns noch unbekannten Ausmaß bedroht.

2024 wählen die Menschen in rund 40 Ländern ihre Regierung neu. Wenn in den USA im Herbst die Wahlurnen öffnen, werden die meisten dieser Länder ihre Wahl bereits hinter sich haben. Angesichts dessen müssen wir uns mit einem Grundpfeiler für demokratische Teilhabe befassen, der schon vor dem digitalen Zeitalter gefährdet war: vertrauenswürdige Informationen. Eine neue Entwicklung ist nun die generative Künstliche Intelligenz, allgemein als „KI“ bekannt. Hinter dieser Abkürzung verbirgt sich eine Vielzahl von Bedeutungen und Möglichkeiten, aber auch Gefahren. Die generative KI ist erst vor einem Jahr mit der Veröffentlichung von ChatGPT in den Fokus der Öffentlichkeit gerückt. Ist sie eher Segen oder Bedrohung – oder möglicherweise nichts davon? Bald werden wir eine genauere Vorstellung davon haben.

Die ersten Anzeichen vermitteln, um es milde auszudrücken, nicht gerade Zuversicht. Einige sind aktuelle Beispiele: In Bangladesch, so berichtet die Financial Times, haben regierungsnahe Medien und Influencer „KI-generierte Desinformationen verbreitet, die mit billigen Tools von KI-Startups erstellt wurden“. Wired berichtet, bei den kürzlich abgeschlossenen Wahlen in der Slowakei seien gefälschte Audios verbreitet worden, die die Stimme eines Kandidaten nutzten, um diesen zu schwächen. In den USA berichtet die Nachrichtenagentur Associated Press, Kandidat*innen hätten damit angefangen, KI-gestützte Robocalling-Systeme einzusetzen, um mit automatisierten Anrufen Interesse für sich oder andere politische Kandidat*innen zu wecken.

Diese Fälle sind zwar besorgniserregend, scheinen aber nicht miteinander verbunden zu sein. Bisher scheinen sie auch nicht im Zentrum einer organisierten Kampagne zur weltweiten Destabilisierung der liberalen Demokratien zu stehen. Wer allerdings routinemäßig Täuschung als Teil des eigenen Überzeugungsarsenals einsetzt, wird zweifellos die neuen Möglichkeiten genau unter die Lupe nehmen und, soweit möglich, in großem Umfang nutzen.

KI hilft antidemokratischen Kräften

Der momentane KI-Boom findet in Zeiten eskalierender und existenzieller globaler Krisen statt. Kriege und Klimawandel sind schon jetzt eine der Ursachen für Massenmigration und wirtschaftliche Schieflagen. Diese und andere Krisen haben zu einer breiten Verunsicherung der Öffentlichkeit beigetragen und nicht zufällig den Aufstieg der Rechtspopulist*innen gefördert, von denen einige waschechte Faschist*innen sind und viele die Demokratie verachten.

KI ist ein Hauptakteur der unerbittlichen, rasenden Entwicklung unserer Informationswelt. Zusammen mit anderen mächtigen Kommunikationswerkzeugen hilft sie böswilligen Propagandist*innen, die antidemokratische Kräfte unterstützen. Trotz der Bemühungen vieler Menschen, die der Öffentlichkeit helfen wollen, Lügen zu enttarnen, gewinnen die Kräfte der Täuschung an Stärke.

Vergessen wir nicht: Die generative KI steckt noch in den Kinderschuhen. Aber auch wenn Medien und Interessengruppen ihre unmittelbare Wirkung und ihr Potenzial wohl übertrieben dargestellt haben, ist sie nicht zu unterschätzen. Sie ist zumindest ein faszinierendes und potenziell mächtiges Instrument, das letztlich eine Revolution bedeuten kann. 

Ihre erste bedeutende Auswirkung auf die Politik könnte darin bestehen, dass sie andere digitale Technologien ergänzt, die schon jetzt Einfluss auf den Wahlprozess haben. Wir wissen längst, wie man zielgenau kleine Wähler*innengruppen ansprechen kann. Bald werden Wähler*innen massenhaft individuelle, speziell auf sie zugeschnittene Nachrichten erhalten. Bots überschwemmen heute Social-Media-Plattformen mit gefälschten Konten, die Lügen verbreiten. Dahinter steckt oft die Absicht, die Wahlbeteiligung zu senken – doch das waren bisher eher stumpfe Instrumente. Schon bald werden die Bösewichte die Bots mit hochentwickelter KI-gestützter Überzeugungskraft ausstatten und sie weitaus präziser einsetzen. 

Trotz der Bemühungen vieler Menschen, die der Öffentlichkeit helfen wollen, Lügen zu enttarnen, gewinnen die Kräfte der Täuschung an Stärke.

Fiktive TV-Nachrichtensprecher*innen werden zwar nicht in den großen Sendern zu sehen sein, aber Clips von ihnen – und KI-generierte Imitationen echter Journalist*innen – werden über soziale Medien weite Verbreitung finden. Einige Plattformen stemmen sich dieser Welle entgegen. Es ist allerdings undenkbar, alles zu moderieren, was in die gewaltigen Social-Media-Netzwerke eingespeist wird.

Uns muss klar werden: Selbst wenn jemand auf magische Weise alle KI-optimierten Fehlinformationen aus der Öffentlichkeit entfernen würde, wäre das übergeordnete Problem nach wie vor ungelöst. Journalist*innen greifen soziale Medien gerne wegen ihrer verdummenden Inhalte an. Jedoch verbreiten die großen Nachrichtensender in den USA und anderswo schon seit Jahrzehnten selbst Fehlinformationen. Die Menschen in den USA erreichen wahrscheinlich mehr Täuschungen vom Murdoch-Sender Fox News als von allen Online-Trollen zusammen. Weltweit fahren mächtige Unternehmen, häufig gemeinsam mit Regierungen, routinemäßige Propagandakampagnen. Wenn wir schon die Konzerne nicht davon abhalten können, den öffentlichen Raum zu vergiften – dann wird es erst recht schwierig, umfassende Lösungen gegen KI-gestützte Online-Fehlinformationen zu finden.

Dennoch sollten wir es versuchen. Unsere Optionen sind unter anderem: Regulierung, Zensur, Gegenmaßnahmen und öffentliche Aufklärung.

Aufdeckung, Regulierung und Medienkompetenz

In den USA gehört das Brennan Center for Justice, das sich für freie und faire Wahlen einsetzt, zu den vielen Befürwortern einer strengen Regulierung. Im Dezember veröffentlichte die Organisation einen Forschungsbericht mit dem Titel Regulating AI Deepfakes and Synthetic Media in the Political Arena (Zur Regulierung von KI-Deepfakes und synthetischen Medien im politischen Raum). Dieser erläutert die Funktionsprinzipien von Regulierung und gibt Beispiele für Maßnahmen, die den Wahlvorgang schützen. Der Bericht bemüht sich stark um einen Ausgleich konkurrierender Interessen. Letztlich lässt sich dies jedoch nicht mit dem hohen Gut der Meinungsfreiheit in demokratischen Gesellschaften in Einklang bringen – schließlich hat die Idee, Lügen zu regulieren, zur Folge, dass auch Äußerungen reguliert werden, die zweifellos legal bleiben sollten. Eine Regulierung mag zwar möglich sein, aber sie ist immer problembehaftet.

Es gibt bessere Gegenmaßnahmen. Wir brauchen bessere Instrumente, damit wir synthetische Medien und deren Motive erkennen und ihre Inhalte falsifizieren oder bestätigen können. Software-Dienste, die KI-generierte Texte zu erkennen behaupten, haben sich als völlig unzuverlässig erwiesen. Das macht sie gefährlich. Bei Open-Source-Intelligence-Projekten wie dem europäischen Bellingcat.com ist der Mensch der entscheidende Faktor. Die Mischung aus menschlicher und maschineller Intelligenz scheint zumindest kurzfristig eine gute Basis zu sein. 

Bildung ist der langfristige und beste Ausweg.

Eine weitere mögliche Gegenmaßnahme, die gerade entwickelt wird, ist eine digitale Kennzeichnung von Medien zum Zeitpunkt der Erstellung. Dabei soll garantiert sein, dass die Kennzeichnung erhalten bleibt, wenn der Inhalt weitergegeben und verändert wird. In der Content Authentication Initiative arbeiten Unternehmen, Hochschulen und andere Interessengruppen gemeinsam an einer entsprechenden Technologie. Die Initiative ist vielversprechend, doch sie befindet sich noch in der Frühphase und wirft alle möglichen schwierigen Fragen zur Medienkontrolle auf.

Bildung ist der langfristige und beste Weg nach vorn. Medienkompetenz-Trainings, wie sie in Europa verbreiteter sind als in den USA, bieten Medienkonsument*innen und Medienschaffenden eine Grundlage, selbst  für vernünftige Urteile zu fällen. Kann uns das gegen eine Flut professioneller Propaganda und Lügen schützen? Wir wissen es noch nicht. Versuchen wir aber gar nicht erst, mit umfassenden, dauerhaften Programmen Menschen aller Altersgruppen zu erreichen, blicken wir in eine finstere Zukunft.

Top