Was KI-Bias bedeuten
Intelligent, aber nicht unfehlbar

Bias in Artificial Intelligence
© Canva

Bias, also Fehler bei der Datenerhebung, stehen in unserem Alltag inzwischen an der Tagesordnung. Solche Datenverzerrungen wirken sich auf unser komplettes Leben aus, angefangen von den Songs, die wir mögen, bis hin zu den Geschenken, die wir bekommen. Die Nutzung von KI wird für uns immer selbstverständlicher, daher müssen wir auch verstehen, was solche verzerrten Daten, die sich in KI-Systeme einschleichen, auf persönlicher und gesellschaftlicher Ebene mit uns machen.

Von Nidhi Singh

Stell dir vor, es ist Weihnachten und damit Zeit für Geschenke. Normalerweise ist das ja etwas Schönes. Allerdings werißt du genau, dass du von deiner Tante wieder mal eine Dose Butterplätzchen bekommen werden. Im zarten Alter von sechs Jahren hattest du nämlich einmal dieser Tante gegenüber den Wunsch nach einer ebensolchen Dose geäußert, und seither bekommst du alle Jahre wieder genau dieses Behältnis randvoll mit Keksen gefüllt geschenkt. Einfach ausgedrückt ist das genau das Muster, nach dem ein KI-Bias funktioniert. Die Systeme der künstlichen Intelligenz lernen, anhand von Daten Entscheidungen zu treffen. Sind diese Daten oder der Algorithmus aus irgendeinem Grund beeinträchtigt, kann es zu einem AI-Bias kommen.

Wenn man den Bias in KI-Systemen auspackt

Bias schleichen sich in KI-Systeme ein, weil sie aus von Menschen erhobenen Daten lernen und damit auch die Voreingenommenheit mit aufnehmen, die in der Gesellschaft vorherrscht. Das kann man sich in etwa so vorstellen, als würde man einen Rap-Song lernen, ohne den genauen Text zu kennen. Wenn Menschen die KI trainieren, können die Daten, die sie eingegeben, fehlerhaft sein. Dies kann bewusst oder unbewusst passieren. Die KI erlernt Muster, die einem fast perfekten Rap-Song ähneln: Auf den ersten Blick scheint alles richtig, die Realität sieht jedoch in Wahrheit anders aus. Diese erlernte Verzerrung bleibt bestehen, und die KI ermittelt weiter auf der Grundlage dieser verfälschten Muster ihre Ergebnisse und Empfehlungen. So wie man seinen Freunden einen Song falsch vorsingt und diese ihn dann genauso nachsingen, übernimmt die KI diese Fehler und verbreitet sie weiter, wenn sie nicht aktiv korrigiert wird.

Solche KI-Bias zu finden, stellt eine enorme Herausforderung dar. Denn ähnlich wie ein Rap-Song, den man voller Selbstvertrauen so lange falsch singt, bis jemand, der den Text kennt, einen korrigiert, können KI-Bias sehr lange Zeit unentdeckt bleiben. Wenn nicht Menschen, die eine genaue Kenntnis der echten, unverfälschten Informationen haben, die Ergebnisse der KI untersuchen, kann es gut sein, dass man eine sehr lange Zeit unbemerkt verfälschten KI-Resultaten Glauben schenkt. Es erfordert enorme Kompetenz und Sorgfältigkeit, diese tückische Fehleranfälligkeit der KI zu durchbrechen und solche Fälle zu entdecken und zu beheben. Solange verzerrte KI ungeprüft weiterarbeitet, werden auch Ungenauigkeiten weiterverbreitet, die wiederum Einfluss auf unsere Entscheidungen haben und soziale Voreingenommenheit fördern, ohne dass wir es merken.

AI Bias

KI-Systeme werden derzeit in alle großen gesellschaftlichen Bereiche integriert, wo sie wichtige Entscheidungen in Sachen Bereitstellung von Kaufgelegenheiten und Ressourcen treffen. Einfach ausgedrückt haben die KI-Bias ernsthafte Konsequenzen für unser tägliches Leben. Derzeit nutzen Regierungen, Unternehmen und andere Organisationen KI, um Entscheidungen zu treffen, die sich direkt auf das Leben von Menschen auswirken. Das kann sich auf die Verfügbarkeit von Snacks in einem Verkaufsautomat beziehen, aber auch bedeuten, dass uns bestimmte Jobs, Gesundheitsleistungen oder in manchen Fällen sogar Kautionen vorenthalten bleiben.

KI-Bias haben tiefgreifende Auswirkungen auf die reale Welte und sorgen dafür, dass bereits existierende soziale Ungleichheit weiterbesteht oder sich noch verschlimmert. Solche sozialen Folgen treten auf, weil KI-Systeme die Vorurteile, die den Daten, mit denen sie angelernt werden, zugrundliegen, reflektieren und verstärken. So kann es vorkommen, dass bei der Einstellung von Mitarbeiterinnen und Mitarbeitern derartig „voreingenommene“ Algorithmen bestimmte demografische Merkmale bevorzugen und so dafür sorgen, dass schon lang bestehende Ungleichheiten auf dem Arbeitsmarkt weiterhin bestehen bleiben. Man muss sich das in etwa so vorstellen, dass z. B. bei McDonald’s nur Menschen mit schwarzen Haaren und bei KFC nur Menschen mit braunen Haaren eingestellt würden. Solche Prozesse lassen die gesellschaftliche Spaltung weiter voranschreiten, da marginalisierte Gruppen damit noch weniger Chancen haben, am sozialen Aufstieg gehindert werden und systemische Diskriminierung noch weiter verstärkt wird.

Darüber hinaus haben solche voreingenommenen KI-Systeme auch wirtschaftliche Folgen auf Menschen. So könnten fehlerhaft angelernte Modelle zur Beurteilung von Kreditwürdigkeit unfairerweise Kredite oder finanzielle Dienstleistungen an Menschen aus marginalisierten Gemeinschaften verweigern und damit deren Chancen, ihren wirtschaftlichen Status zu verbessern, verringern. Dies hat nicht nur Auswirkungen auf Menschen, sondern mindert auch das Vertrauen in KI-generierte Systeme im Allgemeinen. Dies könnte dazu führen, dass KI generell weniger angenommen wird und Innovationen ausgebremst werden, was in der Konsequenz Wirtschaftswachstum und Entwicklungsaussichten negativ beeinflusst.

Können wir das schaffen? Klar.

Um sich dem KI-Bias entgegenzustellen, braucht es einen vielschichtigen Ansatz, denn wer seinem Vater nicht jedes Jahr zum Geburtstag Socken schenken will, der muss auch mal andere Meinungen einholen. Eine effektive Strategie dabei ist es, denn Entscheidungsprozess inklusiver zu gestalten. So wie es einen vielleicht auf neue Ideen bringt, zur Abwechslung mal seinen Onkel in Sachen Geschenkauswahl zu befragen, vermindert es die Fehleranfälligkeit bei der KI-Entwicklung, wenn man verschiedene Stimmen und Perspektiven mit einbezieht. Diese Art von Inklusion bringt neue Standpunkte in den Prozess, mit deren Hilfe man Bias besser erkennen und beseitigen kann, bevor sie das System durchdringen.

Eine weitere Methode, den KI-Bias den Kampf anzusagen, ist der Einsatz technischer Hilfsmittel. Diese agieren als Schutzmaßnahmen und können helfen, Bias in Daten und Algorithmen zu erkennen und einzudämmen. Die Nutzung solcher technischen Möglichkeiten wie Synthetic Data sind ein Weg, Bias aus den Trainingsdatensets zu entfernen und diese damit fairer zu gestalten.

AI mit Herz

Ob selbstfahrende Autos oder Spracherkennung, KI-Systeme übernehmen in vielen Lebensbereichen immer mehr Aufgaben. Damit wird auch die Diskussion um KI-Bias immer wichtiger. Diese zu reduzieren erfordert eine zukunftsgerichtete Perspektive, die kontinuierliche Verbesserung und die Miteinbeziehung ethischer Betrachtungen in allen Entwicklungs- und Anwendungsstadien priorisiert. KI-Systeme müssen so konzipiert und angewendet werden, dass sie nicht nur die Fehleranfälligkeit minimieren, sondern auch zu mehr Chancengleichheit und Gerechtigkeit in der Gesellschaft beitragen.

Indem wir KI-Systeme dazu bringen, ständig dazuzulernen, können wir dazu beitragen, dass diese stets aktuell, relevant und fair bleiben. Wenn du also das nächste Mal deine Tante triffst, versuche, ihr gegenüber dein Lieblingsgebäck zu erwähnen, so dass sie bezüglich deiner Vorlieben stets auf dem Laufenden bleibt. Wenn du diesen Bias nämlich behebst, könntest du endlich mal ein Weihnachten erleben, an dem du keine weitere Keksdose bekommst, die im nächsten Jahr als Aufbewahrungsbox für Nähutensilien dient.

Top