Vorurteile und Irrtümer Künstliche Intelligenz ist nicht neutral
Im vergangenen Jahrzehnt haben wir einen Großteil unserer Zeit in der digitalen Welt verbracht – einer Welt, über die eine Handvoll Konzerne zunehmend die Kontrolle ausüben. Diese Unternehmen steuern in beträchtlichem Maße, was wir sehen und sagen können und welche Werkzeuge uns zur Verfügung stehen.
In Bezug auf Bilder im Netz gibt es drei Bereiche, die kontrolliert werden – da ist zunächst einmal die Frage, was wir sehen können. Unternehmen wie Regierungen schränken den Zugriff auf verschiedene Inhaltskategorien ein, vom nackten menschlichen Körper bis zu Bildern oder Videos, die persönliche Daten enthalten. So zensiert Instagram sexuelle Inhalte; Twitter verbietet es seit Kurzem, Fotos und Videos von Privatpersonen ohne deren Zustimmung zu teilen. Diese Einschränkungen sind zwar begründbar, doch sie können auch negative Folgen für Menschen haben, die diese Plattformen nutzen und möglicherweise etwas aus legitimen Gründen teilen möchten.
Darüber hinaus bieten beliebte Plattformen wie Snapchat, Instagram und TikTok Filter an, die unsere Bilder – und häufig auch unser Selbstbild – verzerren. Aus Parlamenten und Psychologie war bereits heftige Kritik an diesen Filtern zu vernehmen, da sie das Bild, das wir von unserem eigenen Körper haben, entscheidend beeinflussen und uns einseitige Schönheitsideale vorsetzen. Wenn sich diese Ideale durchsetzen, kann auch eine bestimmte Erwartung entstehen, wie wir auszusehen hätten. Wer dieser nicht entspricht, kann Vorurteilen und Diskriminierung ausgesetzt sein.
Der dritte und möglicherweise beunruhigendste Aspekt ist, wie Unternehmen uns mithilfe von Algorithmen Suchergebnisse oder Feed-Inhalte liefern. Die hierbei angewendete Methode wirkt sich in heimtückischer Weise auf die Einordnung und Präsentation insbesondere von Bildern aus: Algorithmen klassifizieren Bilder routinemäßig in diskriminierender Weise, vorurteilsbehaftet oder schlicht falsch. Für Menschen, die diese Plattformen benutzen, kann dies gravierende Folgen haben.
Algorithmen klassifizieren Bilder routinemäßig in diskriminierender Weise, vorurteilsbehaftet oder schlicht falsch.
So klassifizierte die Bilderkennungstechnologie von Google im Jahr 2015 schwarze Menschen irrtümlich als Gorillas. Dabei handelte es sich anscheinend um einen Unfall, und doch ist der Vorfall ein Beispiel, wie Algorithmen mit Daten trainiert werden, die problematische Ergebnisse liefern. Algorithmen mögen rein mathematisch sein, doch sie werden mit menschengemachten Daten gefüttert – und somit auch mit den Vorurteilen und der Ignoranz der Verantwortlichen. Ein Machine-Learning-Algorithmus ist normalerweise eine Blackbox und es bleibt unklar, wie er zu seinen Entscheidungen kommt – sodass der Mensch am Bildschirm nicht nachvollziehen kann, ob ein Fehler durch absichtlich in den Code eingearbeiteten Rassismus entstanden ist oder nur durch schlecht zusammengestellte Daten. Unternehmen teilen auch sehr ungern die Grundannahmen, auf denen ihre Technologien und Datensätze beruhen. Daher sind Dritte nicht in der Lage, solche Fehler zu verhindern.
Geschichten wie diese werden schnell öffentlich. Deutlich schwieriger ist es, die Folgen der umfassenden Nutzung von Künstlicher Intelligenz bei der Steuerung nutzer*innengenerierter Inhalte einem breiten Publikum zugänglich zu machen: Die meisten Fehler dieser Technologien können wir einfach nicht sehen – und noch viel weniger, worauf diese zurückgehen.
Der frühere Content-Moderator Andrew Strait schreibt in dem kürzlich veröffentlichten Buch Fake AI: „Diese Systeme sind einfach komplett unfähig, Nuancen und Kontext des Online-Diskurses zu erkennen. Daher scheitern sie regelmäßig, wenn sie feststellen sollen, ob ein Video Urheberrechte verletzt oder eine rechtmäßige Parodie darstellt; ob ein Beitrag mit einer rassistischen Beschimpfung vom Opfer dieses Hassverbrechens verfasst wurde oder von dem oder der Täter*in.“
Der blinde Fleck der KI
Ein starkes, gut dokumentiertes Beispiel ist der Schaden, den Künstliche Intelligenz (KI) anrichtet, wenn sie extremistische und terroristische Inhalte – und insbesondere Bilder – identifizieren und entfernen soll. Mit der Unterstützung von Regierungen weltweit haben Internetplattformen sich in den vergangenen Jahren daran gemacht, extremistische und terroristische Inhalte zu entfernen. Dabei verlassen sie sich zunehmend auf Algorithmen für maschinelles Lernen, die Inhalte mit entsprechender Beschreibung entdecken und entfernen sollen. Doch die verwendeten Merkmale folgen häufig einem Entweder-Oder-Schema. Daher bleibt wenig Raum für Kontext. Enthält ein Bild Symbole, die mit einer bekannten Terrorgruppe in Verbindung gebracht werden, klassifiziert die KI dieses als terroristischen Inhalt – selbst wenn der Grund für das Vorhandensein dieses Symbols künstlerischer Natur ist oder in Wirklichkeit gegen die entsprechende Gruppe protestiert werden soll. Ebenso werden Inhalte, die historischen, archivarischen oder menschenrechtsbezogenen Zwecken dienen, markiert und mit hoher Wahrscheinlichkeit entfernt. Wer eine Aufgabe, die derart viel Feingefühl voraussetzt, mit Technologie löst, erhält primitive Resultate, die wenig Raum für wichtige Ausdrucksformen lassen.
Sowohl bei Suchvorgängen als auch in der automatisierten Content-Moderation ist KI nur so nützlich – oder nur so „intelligent“ – wie die Daten, die ihr zugrunde liegen. Und diese Daten sind nicht sicher vor menschlichen Irrtümern und Vorurteilen. Wenn wir also gegen Diskriminierung durch Datensätze vorgehen möchten, müssen wir hinter die Kulissen blicken. Wir müssen die Grundannahmen und Voreinstellungen kennen, mit denen Menschen die Datensätze zusammenstellen, die in zunehmendem Maße diktieren, was wir in welcher Form zu sehen bekommen.
Zumindest hilft Transparenz uns, das Problem besser zu verstehen und gegen bestimmte Fehler vorzugehen. Doch als Gesellschaft müssen wir auch anfangen, übergeordnete Fragen zur Rolle solcher Technologien bei der Steuerung unserer Weltsicht zu stellen. Damit das möglich wird, dürfen wir KI nicht mehr als etwas Neutrales betrachten. Wir müssen die inhärent politische Natur ihres Gebrauchs begreifen.
Sowohl bei Suchvorgängen als auch in der automatisierten Content-Moderation ist KI nur so nützlich wie die Daten, die ihr zugrunde liegen. Und diese Daten sind nicht sicher vor menschlichen Irrtümern und Vorurteilen.
Ein hervorragendes Beispiel hierfür ist die Verwendung von KI im Kampf gegen Extremismus. Die Richtlinien, an denen sich der Gebrauch von KI in diesem Zusammenhang orientiert, sind definitiv politisch. Einfach gesagt: Sie unterscheiden zwischen akzeptabler (staatlicher) Gewalt und der Gewalt (gewisser) nicht-staatlicher Akteure. Es gibt gute Gründe, gewalttätige Inhalte zu entfernen. Doch die zugrunde liegenden Richtlinien befassen sich nicht nur mit Gewaltdarstellungen, sondern auch mit allem, das mit Gruppen in Verbindung gebracht werden kann, die ein Unternehmen oder eine Regierung als extremistisch betrachtet. Am Ende steht also nicht nur Schadensbegrenzung, sondern die vollständige Löschung. KI ist nie neutral, ihre Verwendung von Natur aus politisch: Warum werden nur Bilder von bestimmten terroristischen Gruppen aussortiert – und nicht Gewaltdarstellungen aller Art? | Foto (Detail): © Adobe
Von der Online-Sicherheit zur vollständigen Löschung
Es gibt noch viele weitere Beispiele: Etwa wurde unter dem Vorwand der „Online-Sicherheit“ die Möglichkeit genommen, Sexualität auszudrücken. Auch Fehl- und Desinformation zu erkennen, obliegt vorwiegend einer KI, deren Datensätze sich an inhärent politischen Richtlinien orientieren. Bei all diesen Beispielen sind die jeweiligen Richtlinien bekannt, die Fehlerrate ist es in den meisten Fällen jedoch nicht. Anders gesagt: Wir können zwar die Richtlinien analysieren und uns für Veränderungen einsetzen. Doch wir sind nicht in der Lage, zu sehen und zu verstehen, wie häufig legitime Äußerungen (die eigentlich keinen Restriktionen unterliegen) mit geringer oder ganz ohne Kontrolle durch die KI entfernt werden.
Was sollen wir also tun, außer die politische Natur von KI-Nutzung zu erkennen und uns für mehr Transparenz einzusetzen? Sollen wir dies einfach als unsere neue Wirklichkeit akzeptieren oder haben wir weitere Interventionsmöglichkeiten, um die Entwicklung des sogenannten Fortschritts zu verändern?
In meinem neuen Buch Silicon Values: The Future of Free Speech Under Surveillance Capitalism sage ich, dass wir unsere Zukunft nach wie vor selbst gestalten. Dieser neue Zeitgeist ist nicht als naturgegeben zu akzeptieren. Vielmehr müssen wir darauf bestehen, dass „Entscheidungen darüber, was wir zum Ausdruck bringen dürfen, mehr menschliche Aufmerksamkeit und Zuwendung benötigen, anstatt der Willkür von Akteuren und Algorithmen ausgeliefert zu sein, die niemandem Rechenschaft ablegen müssen“.
Letztlich dürfen wir es also nicht bei der reinen Schadensbegrenzung belassen, sondern wir müssen diese technischen Systeme umgestalten, anpassen und möglicherweise sogar abschaffen.