Kunst gegen diskriminierende Algorithmen

Missing Data Sets ©Mimi Onuoha

Algorithmen und künstliche Intelligenz werden bei der Einstellung von neuem Personal genutzt, der Zulassung von Student*innen an Universitäten und sogar der Festlegung von Gefängnisstrafen. Algorithmen ersparen Zeit, können aber auch unfair oder diskriminierend sein. Künstler*innen nehmen diskriminierende Algorithmen ins Visier und decken Fallstricke auf.

Barbara Gruber

Es gibt viele Beispiele für Verzerrungen, die durch künstliche Intelligenz erzeugt werden: Google Translate ordnet Geschlechter bestimmten Berufen zu, Amazon durchforstet Lebensläufe und schlägt zum Vorstellungsgespräch hauptsächlich männliche Namen vor, oder Gesichtserkennungssoftware identifiziert schwarze Gesichter falsch.
 
Die meisten KI-Systeme spiegeln in ihrem Code und in den Daten, die sie zum Lernen verwenden, Merkmale der dominanten Gesellschaft wider, und diese ist eindeutig männlich und weiß.
 
Kuratorin und Gründerin von AIArtists.org, Marnie Benney, sagt, künstliche Intelligenz werde zwar meist mit guten Absichten entwickelt, doch ein Mangel an Vielfalt in den Datensätzen und Menschen, die diese Technologien entwickeln, verstärke die in unseren Gesellschaften bereits verankerte Diskriminierung.
 
2019 hat Benney diese globale Plattform ins Leben gerufen, um Künstler*innen aus der ganzen Welt zusammen zu bringen, die KI für ihre kreative Praxis nutzen. Benney sagt, eine Vielzahl von Perspektiven und Erfahrungen sei wesentlich, um zu verstehen, wie Mensch und Maschine interagieren.
 
„Wir brauchen die Kreativität von Künstler*innen, Dichter*innen, Musiker*innen und Philosoph*innen auf der ganzen Welt, um diese neuen Tools zu untersuchen,“ so Benney. "Wir brauchen queere, schwule, lesbische, transsexuelle, heterosexuelle Menschen, die darüber nachdenken.“
 
Nur etwa 10% der Fachleute, die auf dem Gebiet der KI arbeiten, identifizieren sich als Frauen, und wenn es um KI und Kunst geht, sind die Unterschiede sehr ähnlich. Deshalb ist es für Kuratorinnen und Technologie-Expertinnen so wichtig Vielfalt und Inklusion fördern, sagt Benney.

Diskriminierende Daten

Eine der Frauen, die auf AIArtists.org vorgestellt werden, ist die Dichterin und Wissenschaftlerin Joy Buolamwini. In ihrer Sprechkunst-Performance AI, Ain’t I A Woman, zeigt Buolamwini sehr eindrücklich, wie moderne KI-Systeme schwarze Frauen nicht erkennen.

Buolamwini rezitiert ihr Gedicht während Bilder zeigen, wie Gesichtserkennungssoftware Shirley Chisholm, Oprah Winfrey und Serena Williams als Männer identifizieren, die Haare von Michelle Obama als Toupet bezeichnet werden und Google-Fotos schwarze Menschen als Gorillas kennzeichnen. Buolamwini beschreibt das als “coded gaze”, kodierten Blick.
 
Buolamwini nutzt Kunst, Forschung und die Poesie des Codes, um die sozialen Auswirkungen von KI zu untersuchen und für „algorithmische Gerechtigkeit“ zu kämpfen. Als Aktivistin gründete sie die Algorithmic Justice League, eine Organisation, die Diskriminierungs-Erfahrungen durch KI sammelt, Algorithmen prüft und versucht, umfassendere Datensätzen  zu erstellen.
 
„Es ist wichtig, wer die Algorithmen entwickelt,“ so Buolamwini, „wir brauchen gemischt zusammengesetzte Teams, die die blinden Flecken der Anderen überprüfen können.
 
„Wie wir Codes entwicklen und dabei auf Fairness achten, ist ebenso wichtig,“ betont Buolamwini, wie „warum wir Codes entwickeln“ und dabei sicherstellen, dass Gleichberechtigung und sozialer Wandel Prioritäten sind und nicht bloß nachgeordnete Gesichtspunkte. Sie wünscht sich eine „Welt, in der Technologie nicht nur für einige wenige funktioniert, sondern für alle.“ Caroline Sinders bei einem Workshop Caroline Sinders bei einem Workshop in Berlin im Jahr 2019 | © Z2X Festival

Warum feministische Daten wichtig sind

Algorithmen sind nur so gut wie die Daten, auf denen sie basieren. Doch das Sammeln umfassender Daten ist oft eine große Herausforderung und extrem zeitaufwendig.
 
Frustriert von den vielen dokumentierten Fällen frauenfeindlicher Algorithmen, begann die Wissenschaftlerin und Designerin Caroline Sinders 2017 das Kunstprojekt feminist data set.
 
Sinders Ansatz bei ihrem feministischen Datensatz besteht darin, jeden einzelnen Schritt des KI-Prozesses zu dekonstruieren, analysieren und hinterfragen - einschließlich Datenerfassung, Datenbeschriftung, Datentraining, Auswahl des Algorithmus und Platzierung des Modells in einem Chat-Bot. Zentral ist dabei die intersektionale feministische Perspektive, eine Form des Feminismus, die dafür plädiert, unterschiedliche Identitäten und Marginalisierungen einer Person nicht einzeln, sondern gemeinsam zu betrachten.
 
Diese feministischen Daten sammelt Sinders gemeinschaftlich durch Workshops in Bibliotheken, Konferenzen oder Kunsträumen. Das können Blog-Beiträge, Podcast-Transkripte, Artikel oder ganze Bücher sein, die von den Workshop-Teilnehmerinnen identifiziert, diskutiert und festgehalten werden.
 
„Ethisches, gemeinschaftliches Design und Technologie-Entwicklung sind der erste Schritt in eine gerechte Zukunft“, erklärt sie. „Es ermöglicht Community-Input und erlaubt einer Community, selbst über ein Produkt, seine technischen Fähigkeiten und Ausgestaltung zu entscheiden.“
 
Sinders Workshops zeigen immer wieder, wie schwierig es ist, wirklich feministische Daten zu finden, denn “diese Inhalte werden weniger zitiert, weniger veröffentlicht, und wenn man Google zur Suche nutzt, ist es sehr schwer, denn diese Suchmaschine ist schon selbst ‘voreingenommen’.“
 

Not the Only One

 
Stephanie Dinkins ist eine weitere Künstlerin, die Algorithmen und Diskriminierung auf Grund von Rasse, Geschlecht und Alter unter die Lupe nimmt.
 
Ihr transmediales Projekt Not the Only One (N'TOO) ist eine sprachinteraktive Installation, die die Geschichte mehrerer Generationen einer schwarzen amerikanischen Familie erzählt. Dinkins entwarf und trainierte den Algorithmus mit Interviews von drei Frauen-Generationen aus ihrer eigenen Familie.
 
Dank mündlich überlieferter Geschichten und maschinellem Lernen hält Dinkins Erinnerungen, Mythen, Werte und Träume ihrer Community fest; und die von ihr kreierte künstliche Intelligenz wird so zur vierten Generation ihrer Familie. Eingebettet ist die KI in eine Skulptur mit mehreren Gesichtern; und Besucher können der KI Fragen stellen und mit ihr interagieren.

Bibliothek fehlender Datensätze

Fehlende Datensätze können auch zur Verzerrung des maschinellen Lernens beitragen, da relevante Daten überhaupt nicht erfasst werden.
 
Das Werk Library of Missing Datasets der nigerianisch-amerikanischen Künstlerin, Mimi Onuoha zeigt, wie nicht aufgezeichnete Informationen auch gesellschaftliche Prioritäten widerspiegeln. Durch den Fokus auf das, was nicht da ist, hinterfragt Onuoha unsere Wahrnehmung und Erfahrung mit Technologien. Sie ist überzeugt, Kunst ist eine starke Kulturtechnik, die unser Denken über KI und Algorithmen verändern kann. Library of missing data sets Mimi Onuoha's „Library of missing data sets“ zeigt, wie es zu Verzerrungen beim maschinellen Lernen kommt | © Mimi Onuoha „Kunst ermöglicht uns, verschiedene Möglichkeiten und Zukunftsperspektiven vorzustellen, wie wir diese Technologien nutzen können, anstatt immer wieder in die Falle zu tappen nur auf die Gefahren von KI zu reagieren,“ erklärt sie.
 
Für die Kuratorin von AIArtist.org, Marnie Benney, ist einer der Vorteile von KI, dass sie uns einen Spiegel vorhält, was für Menschen wir sind.
 
„KI hilft uns, grundlegende und systemische Probleme der Ungleichheit anzugehen, die unsere Gattung plagen,“ sagt sie. Die Struktur der Technologie hebt die Befangenheit ihrer Entwickler hervor — intrinsische Voreingenommenheit, die wir alle haben. 

Sie glaubt, dass Kunst, die selbst erfahrene Diskriminierung widerspiegelt, der beste Beitrag gegen verzerrende Algorithmen ist; sie ist von der Hoffnung getragen, dass ihre Arbeit im Endergebnis zu einem Wandel führt, wie künstliche Intelligenz in der Zukunft konzipiert und eingesetzt wird.

Weitere Stichworte von Marnie Benney über die Zukunft kreativer KI gibt es hier.

Artikelvorschläge

API-Error