Digitales! Software, öffne dich!

​Von Diskriminierung am Arbeitsplatz oder in Schule hat jeder schon mal etwas gehört. Aber auch soziale Medien und Suchmaschinen behandeln Menschen ungleich. Wie kann das sein?

Von Kim Maurus

Software © Colourbox
Wir klicken auf Instagram oder Facebook und scrollen durch endlose Bildgalerien und Feeds mit Werbeanzeigen, Memes, Fotos von Freunden und reißerischen Artikelüberschriften. Wir sehen gesponserte Posts, bei denen wir das Gefühl haben, das Handy hätte bei unserer letzten Unterhaltung mitgehört. Wir klicken auf die Anzeige für eine gelbe Cordjacke, weil wir genau so eine wirklich schön finden und kürzlich daran gedacht haben. Die Software, die hinter den sozialen Medien steckt, kennt uns. Das macht Probleme.

Natürlich können Programmcodes, wie ihn die Software innehat, kein Bewusstsein haben. Aber die Software entscheidet, was für uns sichtbar ist – in den sozialen Medien und an vielen anderen Orten im Internet. Ein Post, der besonders aufmerksamkeitserregend ist, wird von der Facebooksoftware stärker verbreitet, also in mehr Feeds angezeigt. Spätestens seitdem sich programmierte Fakeprofile – sogenannte Social Bots – in den sozialen Netzwerken tummeln, weiß man auch, wie leicht sich so Kommunikation und Meinungsbilder lenken lassen. Das beginnt bei den Hasskommentaren unter geteilten Artikeln, die zur Hälfte nicht echt sind und zur anderen Hälfte bewusst Provokationen erzeugen wollen. Was ein Großteil der Menschen denkt, ist unklar, denn die meisten Nutzer kommentieren nicht. Ihre Meinung ist deshalb gar nicht für andere sichtbar. Das verändert unseren Eindruck von der öffentlichen Meinung, es verzerrt ihn regelrecht. Hass, Hetze, Diskriminierung  – alles ganz normal.
 
Cellphone Unsplash © Georgia de Lotz

Eine Gesellschaft, die auf Software basiert, kann sich nicht gegen Diskriminierung stemmen

Und dann gibt es ein weiteres, weniger offensichtliches Problem mit der Funktionsweise von Software. Die Journalistin Ingrid Brodnig war eine der ersten, die die Schattenseiten der sozialen Medien in einem Buch („Hass im Netz“) niederschrieb. Eine davon: Auch die Software selbst kann diskriminieren. 

Bekannt wurde der Fall einer Google-Gesichtserkennungssoftware. Sie klassifizierte ein afroafrikanisches Mädchen als Gorilla. Eine neuseeländische Software für Passfotos erklärte das Foto eines Neuseeländers asiatischer Herkunft für ungültig, weil sie seine Augen als geschlossen registriert hatte. Googelt man professionelle Frisuren für die Arbeit, sind  ausschließlich hellhäutige, blonde Frauen zu sehen, bei unprofessionellen werden dunkelhäutige Frauen mit Afro-Look gezeigt.
 
Ein möglicher Grund für dieses Muster: Wenn eine Software „selbstlernend“ ist, also mit einem Beispiel-Datensatz trainiert, um später große Mengen an unbekannten Daten schnell einordnen zu können, dann ist dieser Beispiel-Datensatz maßgeblich dafür, was genau die Software lernt. Enthält der Datensatz nur Bilder von blonden, hellhäutigen Menschen, kann die Software Bilder von dunkelhäutigen Menschen nicht ideal einordnen. Ein Datensatz, der unsere Gesellschaft nicht in ihrer Vielfalt abbildet, kann also dazu führen, dass die Software verschiedenen Personengruppen diskriminiert –  oder, wie Ingrid Brodnig es formuliert – die gesellschaftliche Ungleichheit in ihren Code übernimmt. 

Das lässt sich systematisch untersuchen. In einer Studie aus dem Jahr 2014 programmierten Wissenschaftler 500 Computer so, dass sie von der Suchmaschine Google entweder als weibliche oder als männliche Onlinenutzer empfunden wurden. Dann untersuchten die Forscher, welche Jobangebote den (unechten) Nutzern angezeigt werden. Fast nur „Männer“ erhielten die Anzeigen für Toppositionen, insgesamt 402 Mal war das der Fall. Nur 60 Mal erhielten Frauen solche Inserate.
 
Cellphone Pexels © Julia Roberts

Sind die Algorithmen Schuld?

Laut Brodnig könnte die Erklärung für diese Benachteiligung darin liegen, dass die Software gelernt hatte, dass (echte) Frauen tatsächlich seltener auf Topverdiener-Anzeigen klicken und ihnen die Inserate dementsprechend seltener anzeigt. Die statistischen Daten, mit denen die Softwaresysteme lernen, basieren auch auf den Informationen, die die Software von uns über die sozialen Medien erhält. Durch unsere persönlichen Daten lernt die Software die gleichen gesellschaftlichen Muster und findet bestehende Korrelationen – wie etwa, dass Männer tendenziell mehr verdienen als Frauen. 

Kann man der Software dann auch die Schuld an alledem geben? Nein, sagt die deutsche Mathematikerin und Informatikerin Britta Schinzel: „Die Forderung nach ethischen und sozialen Algorithmen erscheint als grundlegendes Missverständnis“, schreibt sie in einem Aufsatz. Software beziehungsweise Softwaresysteme seien nicht das gleiche wie Algorithmen. 

Laut Schinzel bestehen Softwaresysteme zum einen aus Algorithmen und zum anderen aus Daten. Algorithmen können dabei als Maschine verstanden werden, die Daten auf ihre vorgegebene, algorithmenspezifische Weise verarbeitet. Welche Daten das sind, ist dem Algorithmus „egal“. Schinzel vergleicht das mit unserer normalen Sprache: Wenn jemand einen diskriminierenden Text schreibt, dann macht man dafür auch nicht die Verwendung von Buchstaben und Zahlen verantwortlich. Dennoch verwendet die Software eben die Daten, mit denen sie gefüttert wird. Sie „kann“ nichts dafür, was sie lernt.

Genau deswegen, so Schinzel, sollte die Menschheit nicht glauben, dass die Welt sich vollständig automatisch steuern ließe. Software kann logischerweise immer nur mit Daten gefüttert werden, die es bereits gibt. Genau dadurch kann es nach Schinzel nicht zu einem richtigen Fortschritt kommen. Nutzt unsere Software Daten, die genauso von gesellschaftlicher Ungleichheit durchzogen sind wie unsere reale Gesellschaft, kann diese sich langfristig nicht weiterentwickeln oder gegen die Diskriminierung von bestimmen Personengruppen stemmen.
 
Cellphone Pexels © Oskar Patyane

Wir können Teil der Kontrollinstanz sein

Brodnig wünscht sich für diese Probleme eine unabhängige Kontrollinstanz, denn: „Warum sollten Algorithmen im Gegensatz zu vielen anderen Produkten keiner Qualitätskontrolle unterliegen?“. Software sollte genauso nach den Grundwerten unseres Rechtssystems „handeln“ wie Menschen. Mario Martini, Verwaltungsrechtswissenschaftler an der Universität Speyer fordert deswegen eine Kennzeichnungs- und Begründungspflicht für algorithmenbasierte Entscheidungsverfahren – also beispielsweise eine Pflicht von Google, zu erklären, warum der Algorithmus so wenigen Frauen das Inserat angezeigt hat. In seinen Augen sollte es aufsichtsrechtliche Kontrollmöglichkeiten geben, also eine Art TÜV für Software. Nach Martini ist das nicht nur aufgrund des Diskriminierungsverbots vonnöten: Wir Menschen haben auch ein Recht darauf, selbst zu entscheiden, wie wir uns in der Öffentlichkeit darstellen (das sogenannte „Recht auf informationelle Selbstbestimmung“). Zu wissen, wie, wo und wann unsere Daten verarbeitet werden, schließt das mit ein. Wenn mit unseren Daten statistische Persönlichkeitsbilder erstellt werden, mit denen ein Computerprogramm lernt, wie es bestimmte Suchanfragen einzuordnen hat, dann kann das unser Recht auf informationelle Selbstbestimmung verletzen. 

Was können wir, die Nutzer, dagegen tun? Wir können anfangen, ein Teil dieser Kontrollinstanz zu sein. Wir können reflektierter auf unser Onlineverhalten blicken. Genau hinschauen, was in den Geschäftsbedingungen steht, bevor wir unsere Daten irgendwo eingeben. Uns mehr damit beschäftigen, wieso die Software uns bestimmte Dinge anzeigt. Unternehmen melden, wenn wir Hinweise auf softwarebasierte Diskriminierung finden, wie etwa bei der Google-Suche. Kurzum: Erkennen, dass unsere digitale fortgeschrittene Welt durch die Daten, auf der sie basiert, von gesellschaftlichen Strukturen durchzogen ist, die viele von uns eigentlich ablegen möchten.