Große Sprachmodelle und Demokratie  Zukunftsweisende Lösung oder Künstlicher Irrsinn?

Ein Cowboy-Roboter, der die Waage der Gerechtigkeit hält
Ein Cowboy-Roboter, der die Waage der Gerechtigkeit hält Prompt von savbeck @ Midjourney AI

Große Sprachmodelle (Large Language Models, LLM) haben aufgrund der ihnen zugrundeliegenden Trainingsprozesse keinerlei Verständnis von Wahrheit und verbreiten daher häufig Falschinformationen. Trotzdem ist wichtig zu betonen, dass die Wirksamkeit von LMM als leistungsfähigen Tools wie bei allen Technologien davon abhängt, wie sie genutzt werden. David Dao erläutert, inwiefern neue KI-Technologien Demokratien schwächen – oder stärken – können. 

Gerechte Berücksichtigung von Perspektiven dank KI 

Zum Abschluss der 28. UN-Klimakonferenz (COP28) in Dubai herrscht eine Stimmung zwischen Hoffnung und Müdigkeit. Delegierte aus aller Welt arbeiten sich vor der letzten Verhandlungsrunde unermüdlich durch politische Entwürfe und Erklärungen. Dabei bewegen sich erfahrene Verhandlungsführer*innen aus Industrieländern auf vertrautem Terrain. Englisch – die Hauptsprache auf der Konferenz der Vertragsparteien (COP) – ist in vielen Fällen ihre Muttersprache oder Zweitsprache. Zudem werden sie von umfangreichen Teams in ihren Heimatländern unterstützt, die einen Großteil der Vorarbeit übernommen haben. 
 
Bei den kleinen und traditionell weniger gut gerüsteten Verhandlungsdelegationen aus dem Globalen Süden sieht die Situation dagegen völlig anders aus. Sie stehen vor der großen Herausforderung, dass ihre wertvollen Perspektiven häufig im komplexen Jargon mit seinen vielen Fachbegriffen untergehen und ihr klimapolitischer Einfluss so geschmälert wird. Eine solche sprachbedingte Ungleichheit bei der demokratischen Mitwirkung ist nicht neu – ich erlebe es seit sechs Jahren persönlich auf diesen Konferenzen. Und was noch schlimmer ist: In vielen Fällen fließen das Wissen und die Perspektiven indigener Menschen – die für den Schutz des Klimas und der Ökosysteme so wichtig sind – gar nicht in die Verhandlungen ein. Allerdings habe ich den Eindruck, dass sich in diesem Jahr etwas geändert hat. 
 
Die Youth Negotiators Academy will dieser Diskrepanz mit der Ausbildung und Vorbereitung junger Unterhändler*innen aus 55 Ländern entgegenwirken. Gemeinsam mit unserer Non-Profit-Organisation GainForest haben sie für die COP28 einen AI Youth Negotiator Assistant namens Polly entwickelt. Diese App beruht auf Tausenden von Interviews mit jungen Verhandlungsführer*innen aus Ländern wie Liberia, Paraguay und Indonesien. Sie bietet Hilfestellung bei der Arbeit mit politischen Dokumenten sowie Übersetzungen und Echtzeitaktualisierungen, damit sich junge Delegierte erfolgreicher an den Gesprächen auf der COP beteiligen können. Inzwischen unterstützt Polly 70 Vertreter*innen der jungen Generation dabei, sich aktiv in den Klimagesprächen einzubringen und wurde während der Konferenzen zum Verfassen von Reden und Beiträgen genutzt. 
 
Taina ist ein weiterer KI-Assistent derselben Organisationen, der noch einen Schritt weiter geht. Die App wird gemeinsam mit indigenen Gruppen entwickelt, um traditionelles Wissen und moderne Entscheidungsprozesse miteinander zu verknüpfen. Mit Hilfe von Taina können lokale und indigene Gemeinschaften ihre Geschichten und ihr Wissen über einen interaktiven Chatbot in ihrer eigenen Sprache miteinander teilen. Mit Zustimmung dieser Gemeinschaften erfasst und übermittelt Taina diese wertvollen Einblicke an Entscheidungsträger*innen auf der COP und stellt auf diese Weise sicher, dass Erkenntnisse aus allen – auch aus den abgelegensten – Teilen der Welt in die globale Entscheidungsfindung einfließen. Derzeit wird Taina im Rahmen eines Pilotprogramms mit den Gemeinschaften der Satere-Mawe, Tikuna und Munduruku in Brasilien sowie mit Flussgemeinden in den Philippinen getestet, um traditionelles Wissen in globale Umweltstrategien einzubringen. 

Wie große Sprachmodelle funktionieren 

Die Funktionsfähigkeit von Polly und Taina beruht auf Generativer KI und großen Sprachmodellen (LLM), die unser Verständnis von der Verarbeitung natürlicher Sprache (Natural Language Processing) auf den Kopf gestellt haben. Im Gegensatz zur bisherigen Meinung, dass detaillierte Regeln der Grammatik und des Satzbaus für das Verständnis von Sprache unerlässlich sind, lernen LLM aus einem umfangreichen Fundus von Textdaten aus dem Internet. Im Verlauf der Lernphase sagt das Modell das nächste Wort in einem Satz voraus – ähnlich der Autovervollständigen-Funktion auf einer Tastatur. Diese Wahrscheinlichkeitsmethode ist bei KI-Ethikforscher*innen auf Kritik gestoßen, weil sie davon ausgehen, dass LLM Sprache nicht wirklich verstehen
 
Trotz dieser Kritik darf der Einfluss von LLM und generativer KI auf unsere Gesellschaften nicht unterschätzt werden. Nach seiner Einführung erreichte ChatGPT, der beliebte Chatbot von OpenAI, bereits 100 Millionen monatliche Nutzer*innen und verzeichnete damit den bisher stärksten Zuwachs in der Geschichte der Nutzeranwendungen. Leider können LLM – im Unterschied zu Polly und Tania, die durch eine Unterstützung bei der Textverarbeitung marginalisierte Stimmen in den demokratischen Prozess einbringen wollen – bei unsachgemäßer Nutzung auch Filterblasen schaffen oder den Blaseneffekt verstärken. 

Die Gefahren des Künstlichen Irrsinns 

Aufgrund ihrer Trainingsprozesse haben LLM keinerlei Verständnis von Wahrheit. Sie geben die in ihren Trainingsdaten enthaltenen Vorurteile wieder und produzieren häufig falsche Informationen. Dieses Problem ist nicht auf LLM beschränkt, sondern war bei allen Machine-Learning-Modellen zu beobachten. Beispielsweise wurden zahlreiche Fälle erfasst, in denen medizinische Chatbots falsche medizinische Ratschläge verbreitet haben. Auf ähnliche Weise hat Galactica von Meta, das Forschende beim Verfassen wissenschaftlicher Artikel unterstützen sollte, falsche Referenzen, fiktive wissenschaftliche Studien und vieles mehr produziert. 
 
Informatiker*innen arbeiten derzeit daran, die Funktionsweisen von LLM durch externe Tools wie Rechner oder Suchmaschinen zu verbessern und so dem Problem der Halluzination vorzubeugen. Allerdings unterscheiden sich LLM von herkömmlichen Machine-Learning-Modellen durch ihr ausgezeichnetes Sprachverständnis und ihre Fähigkeit, auf überzeugende Weise mit Menschen zu interagieren. 
 
In seinem Global Risks Report 2024 stuft das Weltwirtschaftsforum (WEF) Falschinformationen und Fehlinformationen als die größte Gefahr der kommenden zwei Jahre ein. Böswillige Akteure haben Fake News genutzt, um das Geschehen auf den Aktienmärkten zu beeinflussen, schlechte Gesundheitsentscheidungen zu fördern und die Demokratie durch die Beeinflussung von Wahlen zu gefährden – unter anderem bei den US-Präsidentschaftswahlen 2016 und 2020. LLM werden die Wirksamkeit von Fake News nur weiter befördern. Al Gore hat dieses Phänomen, bei dem Nutzer in Echokammern mit Gleichgesinnten eingeschlossen werden, als eine neue Form der KI bezeichnet: als künstlichen Irrsinn, „Artificial Insanity“. 

Ein zukunftsweisender Weg 

Es ist wichtig zu betonen, dass die Wirksamkeit von LMM als leistungsfähigen Tools wie bei allen Technologien davon abhängt, wie wir sie nutzen. Ihr Potenzial zur Förderung der demokratischen Einbindung und der Ermächtigung traditionell marginalisierter Stimmen macht die positiven Seiten dieser technologischen Entwicklung deutlich, wie beispielsweise die beiden Assistentinnen Polly und Taina zeigen. Diese Tools tragen nicht nur zu einer Demokratisierung des Informationszugangs bei, sie stellen zudem sicher, dass unterschiedlichste Perspektiven in globalen Entscheidungsfindungsprozessen gehört und berücksichtigt werden. 

Es ist wichtig zu betonen, dass die Wirksamkeit von LMM als leistungsfähigen Tools wie bei allen Technologien davon abhängt, wie wir sie nutzen.

Allerdings lassen sich die Probleme der künstlichen Intelligenz, insbesondere im Zusammenhang mit Falschinformationen, Fehlinformationen und Artificial Insanity, nur gemeinsam angehen. Für die komplexe Aufgabe, künstliche Intelligenz in unsere gesellschaftlichen Strukturen zu integrieren, benötigen wir einen mehrdimensionalen Ansatz. Hierzu gibt es drei Empfehlungen: 
 
  1. Die Formulierung klarer ethischer Standards für die KI-Entwicklung mit strengen Kontrollmechanismen und Transparenzanforderungen für Trainingsdaten und -prozesse. 
  2. Die Aufklärung über und Sensibilisierung für die Grenzen von LLM, damit Nutzer wissen, wie sie ihre eigenen Ergebnisse einer kritischen Bewertung unterziehen können. 
  3. Die Förderung einer offenen Zusammenarbeit und Mitgestaltung zwischen AI-Entwickler*innen, politischen Entscheidungsträger*innen und lokalen Gemeinschaften, um integrativere und gerechtere KI-Lösungen zu unterstützen. 
Indem priorisiert diejenigen, deren Stimmen mehr Gehör verschafft werden soll, an der Gestaltung von KI-Tools beteiligt werden, kann sichergestellt werden, dass diese Technologien künftig einen entscheidenden Beitrag zur Stärkung unserer Demokratien leisten. 

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.