Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Umgang mit Zustimmung im Zeitalter der KI
Das Dilemma der Einwilligung

The Consent Conundrum
© Canva | Erstellt durch KI

Stellen Sie sich vor, Sie kommen nach Hause und dort warten schon all die Dinge auf Sie, die Sie lieben: Eiscreme, empfohlene Bücher, sogar das perfekte Geburtstagsgeschenk. Und Sie erleben hier nicht das Ende einer romantischen Komödie. Nein, der KI-Assistent auf Ihrem Smartphone war am Werk. Willkommen in der wilden Welt der Zustimmung zur KI-Nutzung, wo Sie mit einem Klick auf „Einverstanden“ nicht nur Ihre E-Mail-Adresse weitergeben, sondern auch den Schlüssel zu Ihrem digitalen Leben.

Von Nidhi Singh

Es gab eine Zeit, da war die Einwilligung mit einem einfach Klick auf „Einverstanden“ getan – und seien wir mal ehrlich, wer von uns hat sich das schon genau angesehen? Doch halten Sie sich bitte fest. Denn die künstliche Intelligenz wird diese kleine Checkbox genauso altmodisch erscheinen lassen wie ein einfaches Handy ohne Funktionen auf einer Technologiemesse anmuten würde.

Neue Modelle der Zustimmung

Ein ernüchternder Gedanke: Niemand fragt Passant*innen nach ihrer Zustimmung, bevor sie von einem selbstfahrenden Auto angefahren werden. Während Fahrer*innen beim Kauf ihres autonomen Fahrzeugs unzählige Haftungsausschlüsse unterzeichnen müssen, haben die potenziell betroffenen Fußgänger*innen keinerlei Mitspracherecht. Diese Überlegung macht ein grundsätzliches Problem der Zustimmung zur KI-Nutzung deutlich: Es geht nicht mehr nur um individuelle Entscheidungen, sondern um gesellschaftliche Folgen.

Ursprünglich war die digitale Zustimmung eine recht eindeutige Sache: Sie stimmen zu, bestimmte persönliche Angaben wie Ihre E-Mail-Adresse oder Ihren Standort für spezifische Verwendungszwecke zu teilen. Das ist in etwa so, als würden Sie Ihr Auto verleihen: Bei der Schlüsselübergabe klären Sie einige grundlegende Regeln („Finger weg von meinen Spotify-Einstellungen!“), und das war‘s.
Doch hier geht der Wahnsinn schon los: Stellen Sie sich vor, jemand leiht sich nicht nur Ihr Auto, sondern Ihren gesamten Lebensstil – Ihre Vorlieben, Abneigungen und alles, was damit zusammenhängt. Genau das passiert heute im Grunde bei Ihrer Interaktion mit KI-Systemen.

Die ‚Zustimmung‘ zum Einsatz von KI ist deutlich komplizierter und komplexer denn je, und keiner unserer bisherigen Zustimmungsmechanismen wird den neuen Anforderungen gerecht. Fachleute sprechen inzwischen von den drei Aspekten der KI-Zustimmung:
  1. Kontext: Verstehen, wann, wo und von wem Ihre persönlichen Daten genutzt werden können.
  2. Zustimmung: Bereitstellen ausführlicher Informationen darüber, wie diese Daten genutzt werden.
  3. Kontrolle: In der Lage sein, bestimmte Formen der Nutzung dieser Daten abzulehnen.

Der Gärtner war‘s: Wenn der KI-Chatbot manipuliert

Darf ich vorstellen: Simran (eine reine Fantasiefigur, doch bestimmt kennen Sie eine solche Person). Nachdem Angebote des jährlichen Diwali-Sales auf allen Bildschirmen in Simrans Leben aufgepoppt sind, hat sie sich in diesem Jahr endlich zum Kauf eines Smart Speakers entschieden. Jetzt kann sie – nur mit Hilfe ihrer Stimme – in ihrer Küche zu Bollywood-Musik grooven, ihre Eltern anrufen, Online-Bestellungen auslösen, Erinnerungen einrichten und Sprachnachrichten verschicken. Doch sie hat sich damit gleichzeitig auch ein KI-System in ihre Wohnung geholt, das:
  • ihre täglichen Routinen auswertet,
  • etwas über ihren Musikgeschmack, ihre Einkaufsgewohnheiten und sogar ihre Gemütszustände erfährt,
  • mit ihren Einkaufskonten und digitalen Brieftaschen interagiert, ihre Textnachrichten liest und Telefonanrufe tätigt,
  • weiß, wann sie sich gut oder schlecht verhalten hat.
Der springende Punkt dabei ist: Simran hat all dem zugestimmt – mit einem einzigen Klick auf die Checkbox und einem schnellen „Ja“ bei der Einrichtung. Doch wie kann man mit Überzeugung in eine Sache einwilligen, die man nicht wirklich versteht?

An dieser Stelle nimmt die Geschichte eine faszinierende Wendung. Denn bei der modernen KI geht es nicht nur um die Erfassung von Daten – die KI lernt auch aus diesen Daten und gleicht ihr eigene Verhalten damit ab, um das der Nutzer*innen zu beeinflussen. Dafür gibt es einige recht realistische, wenn auch etwas unheimliche Szenarien:
  1. Ihr KI-Assistent bemerkt, dass Sie in Stresssituationen zu Impulskäufen neigen. Plötzlich poppen die auf sie zugeschnittenen Anzeigen direkt im Anschluss an Ihre wöchentlichen Team-Meetings auf.
  2. Ihr Smart-Home-System hat erkannt, dass Sie nach Ihrem Morgenkaffee häufig Impulskäufe tätigen. Also zeigt Ihre Shopping-App frühmorgens doppelt so viel Werbung an.
  3. Ihr KI-Chatbot hat beobachtet, dass Sie an jedem letzten Sonntag des Monats ein Mittagessen im großen Familienkreis veranstalten. Daraufhin präsentiert er Ihnen im Anschluss immer wieder Anzeigen für Dating-Apps und Heiratsportale, weil die Wahrscheinlichkeit nach diesen Treffen höher sein könnte, dass Sie sich bei solchen Diensten anmelden.
Herzlichen Glückwunsch! Ihr persönlicher KI-Chat-Partner hat nun eine genaue Vorstellung davon, welche emotionalen Knöpfe er drücken muss, um die Konversation mit Ihnen aufrechtzuerhalten.

Eine unmögliche Einverständniserklärung

Folgendes sollte Ihnen zu denken geben: Möglicherweise lesen Sie gerade diesen Artikel, weil ein KI-Algorithmus anhand Ihres Browserverlaufs festgelegt hat, dass er Sie interessieren könnte. Und vermutlich stimmt das auch, oder? Willkommen in der Zukunft – wo Zustimmung komplex und Datenschutz ein Geduldsspiel ist und wir alle versuchen zu ergründen, wie wir uns durch diese schöne neue Welt bewegen, ohne unseren KI-Assistenten versehentlich zu viel Macht über unser Leben zu geben.

Manchmal können sich die Entwickler*innen von KI-Systemen nicht vollständig erklären, wie ihre KI zu bestimmten Entscheidungen gelangen. Dieser „Black Box“-Aspekt von KI-Systemen – wenn Entwickler*innen und Nutzer*innen nicht in der Lage sind, die tatsachlichen Entscheidungsfindungsprozesse eines KI-Systems nachzuvollziehen – macht die informierte Einwilligung zu einer besonderen Herausforderung und wirft eine grundlegende Frage auf: Wie können Nutzer*innen bewusst einer Sache zustimmen, die nicht einmal deren Schöpfer*innen vollständig erfassen?

Dies führt uns nun zur Gretchenfrage: Wie kann man bewusst in eine Funktion einwilligen, die:
  • sich mit der Zeit weiterentwickelt und lernt,
  • Ihr Verhalten vorhersagen (und möglicherweise beeinflussen) kann,
  • Sie besser versteht als Sie sich womöglich selbst verstehen,
  • Auswirkungen hat, die nicht einmal deren Entwickler*innen vollständig erfassen,
  • nicht nur Sie selbst, sondern auch die Gesellschaft als Ganzes betrifft.
Die einfache Antwort lautet: Es ist nicht möglich, zumindest nicht mit voller Überzeugung. Wir müssen unser herkömmliches Konzept der Einwilligung überdenken. Im Moment versuchen wir, dieses Konzept, bei dem es im Grunde um einfache Ja- oder Nein-Entscheidungen ging, auf eine Welt der komplexen, im ständigen Wandel begriffenen KI-Beziehungen zu übertragen. Das ist so, als würde ein Hirnchirurg versuchen, eine Operation mit einer Sicherheitsschere durchzuführen – also mit einem Werkzeug, das sich für diese Aufgabe nicht eignet.

Ein Einwilligungssystem der Zukunft müsste Folgendes beinhalten:
  • dynamische Zustimmungen, die sich zusammen mit den KI-Funktionen weiterentwickeln,
  • regelmäßige „Einwilligungsüberprüfungen“, aus denen hervorgeht, wie die KI die persönlichen Daten verwendet,
  • eindeutigere Grenzen für akzeptable Verhaltensbeeinflussungen,
  • das Recht, den „Stecker zu ziehen“ und die Zustimmung vollständig zurückzuziehen (sofern das überhaupt noch möglich ist),
  • Zustimmungsmechanismen auf gesellschaftlicher Ebene für Technologien, die alle betreffen,
  • Präferenzsignale für Entwickler*innen zur Kontrolle der Datennutzung beim KI-Training.

Der gesellschaftliche Dialog, den wir führen müssen

Einige Fachleute sagen, es müsse eine gesellschaftliche Diskussion über den Einsatz von Technologien geben. Einen solchen Dialog, der zwar hier und da geführt wird, brauchen wir auf gesamtgesellschaftlicher Ebene, weil diese neuen Technologien uns alle betreffen.

Im Bereich der Technologie-Entwicklung kann die Devise nicht länger lauten: „Lieber hinterher entschuldigen, als vorher um Erlaubnis bitten“. Denn die KI gewinnt zunehmend an Einfluss und kommt in immer mehr Bereichen zum Einsatz. Deshalb bedarf es dringend geeigneter Rahmenbedingungen für die persönliche wie auch die gesellschaftliche Einwilligung. Wir müssen dafür Sorge tragen, dass Technologien künftig dem gesellschaftlichen Fortschritt dienen und nicht nur auf die Impulse von Konsument*innen ausgerichtet sind – indem sie uns beispielsweise dazu verleiten, noch mehr Geld für diesen tollen Smoothie-Mixer auszugeben (den wir nicht wirklich brauchen), um gesunde Getränke herzustellen (die wir nicht wirklich trinken).

Erzählen Sie Ihrem Smart-Home-Assistenten bloß nicht davon – er könnte auf dumme Gedanken kommen!

Top