Vertrautheit und Künstliche Intelligenz (KI)
Algorithmische Kultur
Künstliche Intelligenz (KI) prägt die Kultur nachhaltig. Anstatt Maschinen zu fürchten, die intelligenter sind als der Mensch, könnten wir auch der Frage nachgehen, inwieweit dem Menschen abverlangt wird, sich mehr wie eine Maschine zu verhalten. Wie kann eine Rückbesinnung auf den Körper, auf Landschaft und auf Diasporaerfahrungen neue Möglichkeiten aufzeigen?
Meine Vorfahren brachen Mitte des 19. Jahrhunderts von Irland nach Kanada auf, nachdem der Pilz phytophtora infestans die Kartoffelsorte „Irish Lumper“ dezimiert hatte, die dem Großteil der irischen Bevölkerung als Grundnahrungsmittel diente. Historisch hatte ein Ernteausfall von jeher zur Folge, dass man stärker auf andere angewiesen war. Allerdings gehörte den Iren ihr Land nicht und die britischen Grundbesitzer waren nicht bereit, ihr für den Export gedachtes Getreide herzugeben. Mehr als eine Million Menschen starben, und viele andere flohen nach Nordamerika, England und Australien, um dort ein neues Leben aufzubauen. Die irischen Bevölkerungszahlen haben bis heute nicht wieder das Niveau von 1846 erreicht.
Der Weg der Kartoffel verlief in umgekehrter Richtung: Sie kam aus den Anden, wo sie in vereinzelten Flecken gleich neben wilden Kartoffeln und einer bunten Vielfalt von Kultursorten wuchs. Wenn eine Sorte hier oder da einem Pilz anheimfiel, konnten andere dank der vorhandenen Vielfalt dennoch erfolgreich weitergedeihen.
Das Gleiche gilt für unsere Kultur: Die wachsende Bedeutung der künstlichen Intelligenz quer durch alle Bereiche hat tiefgreifende Auswirkungen auf die Konzepte, auf die wir künftig zurückgreifen können, um Probleme zu lösen.
Wenn Wachstum und Effizienz im Vordergrund stehen, bleibt wenig Raum für Werte, die mit Schönheit, Mitgefühl oder Autonomie zusammenhängen. So wie die Lumper-Kartoffel alle anderen Nutzpflanzen verdrängte, stehen bei KI-Systemen nur die Ansätze im Fokus, die das Potential haben, Größenvorteile zu generieren. Diese Herangehensweise führt zu Systemen, in deren Wahrnehmung die Welt voller Dinge steckt, die optimiert und gesteuert werden müssen. Aus Sicht der KI gilt dies für den Menschen in gleicher Weise wie für Autos oder Frachtschiffe.
Doch anstatt einen Algorithmus zu entwickeln, der wie ein Mensch denkt, wird scheinbar vielmehr das Ziel verfolgt, den Menschen zu automatisieren. Einen großen Teil des Jahres 2019 habe ich im Austausch mit Künstler*innen, Philosoph*innen, Politiker*innen, Informatiker*innen und Forscher*innen verbracht, die von den Möglichkeiten der KI fasziniert sind, die Richtung der aktuellen Entwicklung aber mit Sorge sehen. Sie brachten ihre Bedenken darüber zum Ausdruck, dass die Regeln, nach denen KI-Systeme entwickelt und eingesetzt werden, von Wirtschaftsunternehmen und autoritäre Regime diktiert werden.
Wir sollten davon absehen, die Eigenschaften von Algorithmen dafür verantwortlich zu machen, dass KI-Systeme auf eine Automatisierung des Menschen setzen. Technologie ist stets Ausdruck der Ziele der breiteren Kultur. Die Aufgaben, die wir unseren Algorithmen geben, sind letztlich Spiegelbild unserer Werte.
Vertrautheit setzt voraus, dass wir einander als körperliche Wesen wahrnehmen. Nach KI-Maßstäben ist Vertrautheit allerdings ineffizient und schlecht skalierbar. Eine algorithmische Kultur entscheidet sich in ihren Auswahlprozessen allzu oft gegen die Vertrautheit. Die allgegenwärtige Swipe-Bewegung nach rechts und nach links lässt erkennen, dass der allmähliche und an Gemeinsamkeiten orientierte Prozess der Vertiefung einer Beziehung durch eine andere Form des Onlinehandels ersetzt wird. Wie könnte die KI durch die Linse der Vertrautheit erschlossen werden? Inwieweit könnten Vertrautheitsgesten unseren Umgang mit der KI erschweren?
So wie wir unsere physischen Körper bewohnen, bewohnen wir auch Landschaften und leben in und von ihnen. Die Tragödie der irischen Hungernot hat deutlich gemacht, was geschieht, wenn wir nicht wahrhaben, dass wir in die Natur und ihre Systeme eingebunden sind. Von Steintafeln bis hin zu Siliziumchips – intelligente Maschinen sind nicht weiter vom Boden entfernt als ein gravierter Stein. Wir sind durch unsere Landschaften organisiert und so sollten wir die Frage aufwerfen, wie das Land die Entwicklung und den Umgang mit der KI prägen kann. Wie können wir das Augenmerk von der Überwachung und Steuerung des sichtbaren Verhaltens umlenken – hin zu einem Verständnis der unsichtbaren Beziehungen zwischen Menschen und Lebenswelten?
Zu guter Letzt ist jeder von uns Teil eines bestimmten geschichtlichen, ökologischen und gesellschaftlichen Umfelds. Viele Menschen werden durch Migration oder Vertreibung, real und digital, von den physischen Ursprüngen dieses Umfelds getrennt. Über wessen Ethik sprechen wir also, wenn wir über die Ethik der KI sprechen? Die algorithmische Kultur will, dass wir Fremde als Daten betrachten, ohne echte Verbindlichkeit. KI-Systeme werden oft an Grenzen eingesetzt. Wie können verschiedene Formen der Migration und der Vertreibung die algorithmische Kultur beeinflussen? Wie können wir durch diese Erfahrungen lernen, KI-Systeme zu verbessern und menschlicher zu machen und dann mit den Früchten dieses Prozesses zu uns selbst zurückkehren?
Wir können damit beginnen, uns diesen Fragestellungen durch vielfältige Stimmen und durch Lachen zu nähern. Vertrautheit mit anderen Menschen, ein Verantwortungsbewusstsein für die Welt, in der wir leben, und Geschichten, die von Migration und schwierigen Lebenssituationen erzählen, setzen voraus, dass wir uns außerhalb der Maschine befinden, damit wir besser lernen können, wie wir KI-Systeme mit größerer ethischer Verantwortung lenken können. Wenn wir hier nicht ansetzen, wird uns die algorithmische Kultur immer mehr dahin drängen, dass wir uns den Anforderungen eines Systems fügen, das nicht für uns entwickelt wurde, sondern uns zu vereinnahmen droht, so dass uns am Ende wenig Möglichkeit bleibt, ethisch zu leben und zu handeln.
Jerrold McGrath (@jerroldmcgrath) ist Programmleiter der Reihe „Algorithmic Culture“ des Goethe-Instituts Toronto. Davor war McGrath als Programmdirektor für das Banff Centre for Arts and Creativity und Artscape Launchpad tätig. Der Geschäftsführer von UKAI Projects und Gründer von Ferment AI entwickelt interdisziplinäre Gemeinschaftsprojekte zu Themen, die von breitem gesellschaftlichem Interesse sind, wie Künstliche Intelligenz, Gleichstellung im Umgang mit COVID-19, Hoffnung und Hoffnungslosigkeit und digitale Diaspora. In seiner kreativen Praxis beschäftigt er sich damit, wie wir durch die Welt organisiert werden. Er ist Responsible Leader der BMW Foundation und Botschafter des STATE Festivals in Berlin. McGrath schreibt aktuell sein erstes Buch, “In Praise of Disorder”.
Das neue Programm „Algorithmic Cultures“ (Algorithmische Kulturen) beginnt mit Workshops und der Herausgabe von -zines in Berlin und Toronto. Im Rahmen eines lokalen, idiosynkratischen Prozesses werden wir unsere Freunde, unsere Familie und die Allgemeinheit einbinden, informieren und organisieren. Im Frühjahr 2021 startet außerdem der Podcast „The Computer is Your Friend“, der dokumentiert, wie eine Gruppe von Künstler*innen, Informatiker*innen und Ethiker*innen durch eine schwarzhumorige Spielewelt navigiert, die unter der Herrschaft eines unberechenbaren Tyrannen steht und deren Regeln niemand genau kennt.
Wir freuen uns darauf, in Zusammenarbeit mit vielen herausragenden Künstler*innen und Partner*innen zu erforschen, wie die Herausforderungen der KI mit dem Gedanken der Körperlichkeit und Vertrautheit, unseren Landschaften und verschiedenen Diasporaerfahrungen verwoben sind.
Wir glauben, dass die Gestaltung einer KI, die für ein Leben in Deutschland oder in Kanada, in Berlin oder in Iqaluit sinnvoll ist, davon abhängt, dass wir wieder in Kontakt mit Lebensgeschichten, Landschaften und Kulturen kommen und Richtungen für die Entwicklung der KI aufzeigen, die auf unsere Erfahrungen als Menschen zurückgehen.
Der Weg der Kartoffel verlief in umgekehrter Richtung: Sie kam aus den Anden, wo sie in vereinzelten Flecken gleich neben wilden Kartoffeln und einer bunten Vielfalt von Kultursorten wuchs. Wenn eine Sorte hier oder da einem Pilz anheimfiel, konnten andere dank der vorhandenen Vielfalt dennoch erfolgreich weitergedeihen.
Das Gleiche gilt für unsere Kultur: Die wachsende Bedeutung der künstlichen Intelligenz quer durch alle Bereiche hat tiefgreifende Auswirkungen auf die Konzepte, auf die wir künftig zurückgreifen können, um Probleme zu lösen.
Wachstum und Effizienz
Algorithmische Kultur beschäftigt sich mit der Frage, wie die Logik von Big Data und Computertechnik unsere Wahrnehmung und Erfahrung der Welt verändert. Im Mittelpunkt der dominanten Logik von Big Data stehen Wachstum und Effizienz. Die irische Lumper-Kartoffel war einfach und billig anzubauen. Aber dabei handelte es sich um eine geklonte Pflanze, die aus Schnittstücken der Vorgängergenerationen gezogen wurde. Dadurch war das Grundnahrungsmittel höchst anfällig, was Folgen für alle hatte, die darauf angewiesen waren.Wenn Wachstum und Effizienz im Vordergrund stehen, bleibt wenig Raum für Werte, die mit Schönheit, Mitgefühl oder Autonomie zusammenhängen. So wie die Lumper-Kartoffel alle anderen Nutzpflanzen verdrängte, stehen bei KI-Systemen nur die Ansätze im Fokus, die das Potential haben, Größenvorteile zu generieren. Diese Herangehensweise führt zu Systemen, in deren Wahrnehmung die Welt voller Dinge steckt, die optimiert und gesteuert werden müssen. Aus Sicht der KI gilt dies für den Menschen in gleicher Weise wie für Autos oder Frachtschiffe.
Die Automatisierung des Menschen
Die Tatsache, dass KI-Systeme dem Menschen abverlangen, sich mehr wie eine Maschine zu verhalten, ist bedenklich. Die algorithmische Kultur verlangt von uns, dass wir so tun, als würden wir uns in unserem Leben nicht ständig weiterentwickeln und anpassen, verfallen und uns radikal neuausrichten. Das System nimmt kleine Veränderungen in unseren Vorlieben oder Bewegungen hin, solange wir nicht den Rahmen sprengen, der vorgibt, was als nächstes passiert. Um eine bessere Zukunft möglich zu machen, hat die KI mehr Interesse daran, dass der Mensch fest verankert bleibt, vorhersehbar in seinen Reaktionen, reduziert in seinen Handlungsmöglichkeiten. Die KI hat Schwierigkeiten damit, die Bereiche unseres Lebens zu erfassen, die uns unüberschaubar machen könnten – Gemeinschaft, Spiritualität, Naturverbundenheit, körperliche Ekstase, Vertrautheit oder Kunst.Doch anstatt einen Algorithmus zu entwickeln, der wie ein Mensch denkt, wird scheinbar vielmehr das Ziel verfolgt, den Menschen zu automatisieren. Einen großen Teil des Jahres 2019 habe ich im Austausch mit Künstler*innen, Philosoph*innen, Politiker*innen, Informatiker*innen und Forscher*innen verbracht, die von den Möglichkeiten der KI fasziniert sind, die Richtung der aktuellen Entwicklung aber mit Sorge sehen. Sie brachten ihre Bedenken darüber zum Ausdruck, dass die Regeln, nach denen KI-Systeme entwickelt und eingesetzt werden, von Wirtschaftsunternehmen und autoritäre Regime diktiert werden.
Wir sollten davon absehen, die Eigenschaften von Algorithmen dafür verantwortlich zu machen, dass KI-Systeme auf eine Automatisierung des Menschen setzen. Technologie ist stets Ausdruck der Ziele der breiteren Kultur. Die Aufgaben, die wir unseren Algorithmen geben, sind letztlich Spiegelbild unserer Werte.
Körper, Landschaft und Diaspora
Wer sich mit KI beschäftigt, betrachtet den menschlichen Körper, Landschaften und Diasporen allzu oft als Probleme, die durch Datenanalysen und automatisierte Entscheidungspfade zu lösen sind. Technologien werden nicht entwickelt, um ein gemeinschaftliches Bewohnen einer gemeinsamen Welt zu fördern, sondern einem lokal optimierten Interessensbereich zu dienen, der voraussagbar und kontrollierbar ist.Vertrautheit setzt voraus, dass wir einander als körperliche Wesen wahrnehmen. Nach KI-Maßstäben ist Vertrautheit allerdings ineffizient und schlecht skalierbar. Eine algorithmische Kultur entscheidet sich in ihren Auswahlprozessen allzu oft gegen die Vertrautheit. Die allgegenwärtige Swipe-Bewegung nach rechts und nach links lässt erkennen, dass der allmähliche und an Gemeinsamkeiten orientierte Prozess der Vertiefung einer Beziehung durch eine andere Form des Onlinehandels ersetzt wird. Wie könnte die KI durch die Linse der Vertrautheit erschlossen werden? Inwieweit könnten Vertrautheitsgesten unseren Umgang mit der KI erschweren?
So wie wir unsere physischen Körper bewohnen, bewohnen wir auch Landschaften und leben in und von ihnen. Die Tragödie der irischen Hungernot hat deutlich gemacht, was geschieht, wenn wir nicht wahrhaben, dass wir in die Natur und ihre Systeme eingebunden sind. Von Steintafeln bis hin zu Siliziumchips – intelligente Maschinen sind nicht weiter vom Boden entfernt als ein gravierter Stein. Wir sind durch unsere Landschaften organisiert und so sollten wir die Frage aufwerfen, wie das Land die Entwicklung und den Umgang mit der KI prägen kann. Wie können wir das Augenmerk von der Überwachung und Steuerung des sichtbaren Verhaltens umlenken – hin zu einem Verständnis der unsichtbaren Beziehungen zwischen Menschen und Lebenswelten?
Zu guter Letzt ist jeder von uns Teil eines bestimmten geschichtlichen, ökologischen und gesellschaftlichen Umfelds. Viele Menschen werden durch Migration oder Vertreibung, real und digital, von den physischen Ursprüngen dieses Umfelds getrennt. Über wessen Ethik sprechen wir also, wenn wir über die Ethik der KI sprechen? Die algorithmische Kultur will, dass wir Fremde als Daten betrachten, ohne echte Verbindlichkeit. KI-Systeme werden oft an Grenzen eingesetzt. Wie können verschiedene Formen der Migration und der Vertreibung die algorithmische Kultur beeinflussen? Wie können wir durch diese Erfahrungen lernen, KI-Systeme zu verbessern und menschlicher zu machen und dann mit den Früchten dieses Prozesses zu uns selbst zurückkehren?
Wir können damit beginnen, uns diesen Fragestellungen durch vielfältige Stimmen und durch Lachen zu nähern. Vertrautheit mit anderen Menschen, ein Verantwortungsbewusstsein für die Welt, in der wir leben, und Geschichten, die von Migration und schwierigen Lebenssituationen erzählen, setzen voraus, dass wir uns außerhalb der Maschine befinden, damit wir besser lernen können, wie wir KI-Systeme mit größerer ethischer Verantwortung lenken können. Wenn wir hier nicht ansetzen, wird uns die algorithmische Kultur immer mehr dahin drängen, dass wir uns den Anforderungen eines Systems fügen, das nicht für uns entwickelt wurde, sondern uns zu vereinnahmen droht, so dass uns am Ende wenig Möglichkeit bleibt, ethisch zu leben und zu handeln.
Über den Autor
Algorithmische Kultur
Dieses Jahr wird das Goethe-Institut Toronto verschiedenen Stimmen Gehör schenken, die neue Wege im Umgang mit KI und Ethik aufzeigen.Das neue Programm „Algorithmic Cultures“ (Algorithmische Kulturen) beginnt mit Workshops und der Herausgabe von -zines in Berlin und Toronto. Im Rahmen eines lokalen, idiosynkratischen Prozesses werden wir unsere Freunde, unsere Familie und die Allgemeinheit einbinden, informieren und organisieren. Im Frühjahr 2021 startet außerdem der Podcast „The Computer is Your Friend“, der dokumentiert, wie eine Gruppe von Künstler*innen, Informatiker*innen und Ethiker*innen durch eine schwarzhumorige Spielewelt navigiert, die unter der Herrschaft eines unberechenbaren Tyrannen steht und deren Regeln niemand genau kennt.
Wir freuen uns darauf, in Zusammenarbeit mit vielen herausragenden Künstler*innen und Partner*innen zu erforschen, wie die Herausforderungen der KI mit dem Gedanken der Körperlichkeit und Vertrautheit, unseren Landschaften und verschiedenen Diasporaerfahrungen verwoben sind.
Wir glauben, dass die Gestaltung einer KI, die für ein Leben in Deutschland oder in Kanada, in Berlin oder in Iqaluit sinnvoll ist, davon abhängt, dass wir wieder in Kontakt mit Lebensgeschichten, Landschaften und Kulturen kommen und Richtungen für die Entwicklung der KI aufzeigen, die auf unsere Erfahrungen als Menschen zurückgehen.