Ethik und Recht
„Wir sollten eigene europäische Standards festlegen“
Braucht es Gesetze und ethische Standards für die Entwicklung Künstlicher Intelligenz (KI)? Karen Yeung, Professorin für Recht, Ethik und Informatik an der Universität von Birmingham, erklärt, weshalb es dringend nötig ist, technologische Entwicklungen zu regulieren.
Frau Yeung, in Ihrem Buch „Algorithmic Regulation“ schreiben Sie, dass man sich „zumindest unter den Anglo-Commonwealth-Expert*innen für öffentliches Recht kaum bewusst ist, dass eine Revolution im Gesetzgebungsprozess im Gange sein könnte“. Woran liegt das?
Der jüngste Bericht der deutschen Nichtregierungsorganisation Algorithm Watch Automating Society 2020 schildert, dass im öffentlichen Sektor in Europa immer mehr und vielfältigere Systeme zur automatischen Entscheidungsfindung (ADM) zum Einsatz kommen. Manche dieser Systeme nutzen maschinelles Lernen (ML), manche nicht, aber ich finde es wichtig, über sie alle zu sprechen. Wir müssen ADM und die Automatisierung zentraler Bereiche des privaten und sozialen Lebens insgesamt ernster nehmen. Aber vielen Menschen fehlt das Bewusstsein dafür – vielleicht auch, weil viele dieser Prozesse im Hintergrund ablaufen.
Warum ist es so wichtig, sich im Zusammenhang mit ADM und KI mit ethischen Fragen zu befassen?
Wenn wir im Zusammenhang mit KI über Ethik nachdenken, geht es um unsere Verantwortung dafür, wie unser Handeln andere beeinträchtigt. Wenn ich Sie versehentlich umstoße: Welche Verantwortung habe ich dann Ihnen gegenüber? Welche Pflichten habe ich gegenüber anderen Menschen und der Umwelt? Solche Überlegungen sind meiner Ansicht nach ein guter Ausgangspunkt für eine Diskussion, denn „KI-Ethik“ ist inzwischen zu einer Art Rubrik für alles Schlechte geworden, das mit KI in Zusammenhang gebracht wird. Über grundlegende Werte gibt es viele allgemeingültige Behauptungen, denen niemand widersprechen kann. Wir müssen diese Prinzipien aber sehr viel detaillierter durchdenken und genau aufdröseln, welche Verantwortlichkeiten und Pflichten diejenigen haben, die diese Systeme entwickeln und einsetzen, wenn sie negative Auswirkungen haben. Neben ernsthaften Problemen, die in der nicht allzu fernen Zukunft auftreten können, haben wir schon jetzt, bei der Implementierung dieser Systeme, etliche ernstzunehmende Fragen zu klären. Sie beeinträchtigen das Leben der Menschen bereits – und zwar unmittelbar und direkt. Und so wirken sie sich auch bereits nachteilig auf unser soziales, kulturelles, politisches und wirtschaftliches Umfeld aus.
Können Sie ein Beispiel nennen, wie ADM unser Leben schon heute auf eine ethisch fragwürdige Weise beeinflusst?
Am offensichtlichsten ist der Einfluss, den Soziale Medien auf den öffentlichen Diskurs und politische Wahlen haben.
Es gab in letzter Zeit viele Forderungen sowohl von Seiten der Zivilgesellschaft als auch von Politiker*innen, den Informationsfluss in den Sozialen Medien zu regulieren, also etwa Falschinformationen und Fake News zu verbieten. Wir müssen uns aber die Zeit nehmen, auszudiskutieren, welche Form von Informationen erlaubt sein sollten, ob die Plattformen oder die Nutzer*innen verantwortlich zu machen sind, und welche Maßnahmen wirkungsvoll sein könnten. Liegt es in der Natur dieser sich rasant entwickelnden Technologien, dass ihr Einfluss und ihre Möglichkeiten immer sehr viel schneller wachsen als neue Gesetze und Regulierungen aufgesetzt werden können?
Nun, die Annahme, dass die Rechtsprechung nicht mit den Technologien mithalten kann, ist ein sehr verbreitetes und oft bemängeltes Missverständnis. Das Problem liegt aber nicht in der Rechtsprechung, sondern in den sozialen Normen angesichts des technologischen Wandels. Als zum Beispiel WLAN neu aufkam, stand die Frage im Raum, ob es in Ordnung sei, sich im WLAN eines anderen einzuloggen. Damals gab es diesbezüglich keine klaren sozialen Normen und viele Netzwerke waren anfangs nicht passwortgeschützt. Gesetze können sich verändernde soziale Normen grundsätzlich gut reflektieren und etablierte Prinzipien auf neue Kontexte anwenden. Wenn der technologische Wandel allerdings neue Umgangsformen mit sich bringt, in denen sich allgemein akzeptierte Normen erst entwickeln müssen, wäre ein Gesetz, das sagt, „X muss Y machen“, nicht unbedingt angemessen – zumindest nicht in demokratischen Gesellschaften. Und erst recht nicht, wenn es keine öffentliche Debatte darüber gibt, was das Gesetz unter diesen neuen und bislang unbekannten Bedingungen überhaupt fordern soll. Das Missverhältnis besteht also nicht zwischen Rechtsprechung und Technologie, sondern zwischen gesellschaftlichen Normen und technologischem Wandel.
Warum gilt das insbesondere für die digitale Welt – und wie sieht es diesbezüglich in anderen hoch innovativen Disziplinen aus?
Die Kultur unterscheidet sich diesbezüglich in verschiedenen wissenschaftlichen Disziplinen deutlich. Nehmen wir zum Beispiel diesen Fall hier: Ein eigenbrödlerischer Forscher in China hat versucht, in das Genom eines menschlichen Embryos einzugreifen, um ein so genanntes „Designer-Baby“ zu erzeugen. Er wurde dafür verteufelt, weil innerhalb der zugehörigen Wissenschafts-Community klar die Ansicht vorherrschte, ein solcher Schritt sei moralisch unangemessen und das Thema kontrovers, insbesondere angesichts der Neuartigkeit der Technologie und der tiefgreifenden Folgen für das Individuum und die gesamte Gesellschaft. Im Bereich der Humanbiotechnologie gibt es also ein großes Bewusstsein dafür, dass neuartige Eingriffe gesellschaftlich akzeptiert sein müssen und es daher notwendig ist, diese vorab öffentlich zu diskutieren. Die Wissenschaftler*innen in diesem Bereich erkennen, wie wichtig sinnvolle Gesetze und Regulierungen sind, die technologische Innovationen ermöglichen und ihnen Grenzen auferlegen. In der digitalen Welt ist aber genau das Gegenteil der Fall. Hier geht es immer um Schnelligkeit und darum, Dinge zu verändern – und jeder, der einen Laptop und einen Internetzugang hat, kann die digitale Transformation vorantreiben. Die Hacker-Mentalität ist eine des Tüftelns und Ausprobierens, die von Spielereien und neuen Möglichkeiten fasziniert ist. Das wäre ja an sich auch völlig in Ordnung, wenn es allein um das Erstellen von Computerspielen ginge. Aber die Gesellschaft ist kein Computerspiel.
Welche Risiken birgt es, wenn jeder Hacker die Gesellschaft schneller verändern kann, als gesellschaftliche Normen und Gesetze überhaupt mithalten können?
Es gibt ein historisches Pendant, das unsere heutige Situation gut widerspiegelt: die erste Industrielle Revolution. Seither hat sich unsere Lebensqualität fraglos verbessert, aber wir haben die externen Effekte dieser Revolution nicht beachtet: Wir haben die unerwünschten Nebenwirkungen großindustrieller Produktion ignoriert und waren uns darüber auch nicht bewusst. Jetzt stehen wir vor einer ernstzunehmenden Klimakatastrophe. Gerade laufen wir Gefahr, in genau die gleiche Falle zu tappen – und das nicht nur in ökologischer Hinsicht, sondern auch, was unser gesellschaftliches und politisches System angeht. Es herrscht momentan eine Art „digitale Verzauberung“ – der lächerlich naive Glaube, dass, wenn wir nur schlau genug sind, Algorithmen und Daten unsere sozialen Probleme lösen werden, und dass das Digitale keine Nachteile hat. Für manche mag es großartig sein, dass Alexa das Licht anmachen kann, ohne dass man auch nur einen Knopf berühren muss. Aber wir sollten uns auch damit auseinandersetzen, was es bedeutet, wenn wir solche Geräte mit Überwachungsfunktion in unsere Wohnungen lassen.
Immerhin können wir alle selbst entscheiden, ob wir Alexa im Haus haben wollen oder nicht, und somit auch, ob uns Bequemlichkeit mehr wert ist als unsere Privatsphäre – und umgekehrt. Sind wir letztlich nicht alle selbst dafür verantwortlich, zu erwägen, welche Geräte wir nutzen wollen und welche Nachteile das haben könnte?
Wenn Einschränkungen des Waffenverkaufs gefordert werden, kontert die US-Waffenlobby gerne mit dem Slogan: „Nicht Waffen töten Menschen, Menschen töten Menschen.“ Aber das ist eben nur die halbe Wahrheit, denn ein Gewehr ist nun mal eine weit mächtigere Waffe als eine Handvoll Steine und ein Gummiband. Die Hohen Priester des Silicon Valley ignorieren das einfach alles. Ähnlich unsichtbar ist die Arbeit billiger Arbeitskräfte aus dem Globalen Süden, die Energie, die unsere Geräte verbrauchen, sowie andere negativen Auswirkungen, die bewusst in den Hintergrund gerückt werden, um ein optimales Nutzererlebnis zu ermöglichen.
Wer haftet dafür, wenn ein KI-System einen Fehler macht? Bei der Entwicklung und Nutzung von KI-Softwares sind viele Menschen involviert, sei es der oder die Softwareentwickler*in, Datenanalyst*in, Eigentümer*in – oder eben der oder die Nutzer*in.
Das Problem der vielen Köch*innen ist bereits aus anderen Bereichen bekannt, da ist KI ist nichts Besonderes. Ich wünschte, Informatiker*innen würden endlich begreifen, dass das ein uraltes Problem ist, für das die Rechtssprechung seit Jahrzehnten Antworten bereithält. Bei komplexen Produkten, die komplexe Wertschöpfungsketten und die Beteiligung mehrerer Organisationen und Personen am Produktionsprozess mit sich bringen, kommen jedoch genau die gleichen Fragen auf. Das Gesetz löst das, indem es sagt: „Alle sind haftbar und es liegt an den Beteiligten selbst, die Verantwortung untereinander aufzuteilen, für die das Gesetz dann eine Lösung bietet.“ Entscheidend ist, dass die Verantwortung am Ende nicht bei den eigentlich Unbeteiligten liegt.
Sie waren Mitglied der High Level Expert Group der EU zu Künstlicher Intelligenz. Welche Schritte schlagen Sie der EU zur Regulierung von KI vor?
Auch hier würde ich gerne ADM in die Diskussion einbeziehen und nicht nur auf KI eingehen. Alle softwaregesteuerten Entscheidungsfindungssysteme arbeiten in einem hohen Tempo und Umfang – KI verschärft und beschleunigt das nur noch. Die High Level Expert Group zu KI begann ihre Arbeit vor mehr als zwei Jahren und entwickelte völlig freiwillige Ethikrichtlinien zu vertrauenswürdiger KI. Diese basierten auf sehr edlen und erstrebenswerten Prinzipien – aber leider hat die Gruppe nicht die Position, um sie durchzusetzen. Die EU-Kommission hat einen Vorschlag zur Regulierung von KI veröffentlicht und sagte, sie biete damit einen „risikoorientierten“ Ansatz an. Trotz bester Absichten adressiert der Inhalt dieses Regulierungsvorschlags die Risiken aber überhaupt nicht. Ehrlich gesagt war das ziemlich enttäuschend.
Woher kommt der Widerwille, KI zu regulieren?
In Krisen wie dieser, in denen Produktivität und wirtschaftlicher Wohlstand als besonders wichtig gelten, hoffen Regierungen darauf, dass uns die Technologieindustrie rettet. Niemand will die goldene Gans schlachten. Und die Gans beklagt sich fortlaufend und sagt: „Wenn ihr mir irgendwelche Zwänge auferlegt, werden all meine Kreativität und Fähigkeiten verloren gehen.“ Mit anderen Worten: Es gibt diesen lauten, unfassbar wenig hinterfragten Glaubenssatz, dass Regulierung Innovation erstickt. Das ist völliger Unsinn. Ohne Gesetze gäbe es auch keine einklagbaren Verträge und keine Eigentumsrechte.
Wie hoch schätzen Sie das Risiko ein, dass Unternehmen sich in Ländern niederlassen, die niedrigere rechtliche Standards haben, und dass wir folglich weltweit um niedrigere Standards hinsichtlich ADM und KI konkurrieren?
Ich glaube nicht an diese „Wir werden von China oder den USA ausgelöscht, wenn wir uns selbst regulieren“-Idee. Global brauchen wir Abkommen bezüglich Militärtechnologie und Verbote zu bestimmten Anwendungen. Darüber hinaus: Wenn China und die USA im zivilrechtlichen Bereich weiterhin bei ihren niedrigeren Standards bleiben wollen, steht es uns bis zu einem gewissen Punkt nicht zu, ihnen unsere kollektiven Werte aufzudrängen – sofern sie uns nicht vorschreiben, wie wir zu leben haben. Es ist an der europäischen Öffentlichkeit, darüber zu diskutieren und zu entscheiden, welche Praktiken wir in Europa akzeptabel finden und in was für einer Gesellschaft wir leben wollen. Und dann sollten wir nach diesen Prinzipien, Normen und Standards leben.
Was würde „nach unseren Normen leben“ praktisch bedeuten?
Ich gebe Ihnen ein Beispiel: Wenn eine medizinische Anwendung aus China mit Daten gefüttert wurde, für welche die Datenschutzrechte der Bürger*innen verletzt wurden oder die ohne deren informierte Zustimmung erhoben wurden, dann sollten wir nicht erlauben, dass diese Anwendung nach Europa importiert wird. Und wenn der Online-Marktplatz Alibaba und andere in Europa aktiv werden wollen, dann können sie das tun – vorausgesetzt, sie folgen unseren Regeln. Die EU-Datenschutz-Grundverordnung (DSGVO) ist ein großartiges Beispiel für unseren gemeinsamen Glauben an Datensicherheit und die Notwendigkeit rechtlich einklagbarer Standards. Wir müssen unsere eigenen Standards setzen und dann auch nach diesen leben.
Wie realistisch ist es denn, dass wir diese Anforderung in einem globalen Umfeld leben können? Wenn ich etwa mit Freunden kommunizieren will, die auf der ganzen Welt verstreut sind, dann mache ich das über die vorherrschende Plattform Facebook. Und diese wurde nicht nach unseren Standards entwickelt, sondern nach US-Standards.
Sie haben völlig recht. Wir sind immer noch im „Schnell handeln und Dinge zerstören“-Modus. Aber das legt sich langsam. Die Gesetzgeber schlagen nun zurück und es gibt einen wachsenden Konsens, dass diese Plattformen zu viel Macht haben und dass ihnen diese genommen werden muss. Wenn der politische Wille stark genug ist, können wir diese Dinge ernsthaft angehen. Aber ich stimme Ihnen zu: Wir sind noch weit davon entfernt. Was wir brauchen ist kollektives Handeln.
Es klingt so, als wären Sie ziemlich optimistisch.
Optimistisch nicht, aber hoffnungsvoll. Was ich weiß, ist, dass noch viel Schaden angerichtet werden wird, ehe digitale Innovation verantwortungsvoll sein wird. Es geschieht alles so schnell, die Entwicklung ist für die Menschen kaum sichtbar und schwer zu verstehen, und sie ist zudem sehr komplex. Ich weiß zum Beispiel auch nicht, wie viele Unternehmen uns gerade tracken, während wir online dieses Interview führen – es dürften vermutlich mehr als 150 sein, richtig? Wir fühlen uns so machtlos, dass wir Dinge zulassen, die wir in anderen Bereichen unseres Lebens niemals akzeptieren würden.
Was raten Sie den Menschen bezüglich Datenschutz und Sicherheit? Es scheint allgemeiner Konsens zu sein, dass man als Einzelne*r nichts dagegen tun kann.
Gute Frage. Ich würde sagen: Schalten Sie Ihr Hirn nicht aus. Überdenken Sie Ihre digitalen Interaktionen besser. Stellen Sie Ihre Datenschutzeinstellungen und Voreinstellungen auf das Nötigste um, kaufen Sie Ihrem Kind kein Smartphone, bevor es alt genug ist, dieses verantwortungsvoll zu nutzen, und kaufen Sie bitte um Himmels Willen keine Überwachungsgeräte für Ihre Wohnungen und Privaträume.
Wie sieht Ihr Worst-Case-Szenario hinsichtlich KI aus?
Das wäre eine europäische Hochglanzversion von China, also ein autoritäres Regime, zusammengemixt aus der Macht von Regierungs- und Technologie-Unternehmen, das uns effektiv vermarktet wird: lauter strahlende, glückliche Menschen. Man kann sich heute eine Zukunft vorstellen, die Aldous Huxleys „Brave New World“ ziemlich ähnelt.