Social Robotics Mit Robotern leben lernen
Wenn Maschinen am Leben teilnehmen, braucht die Gesellschaft neue Regeln. Ein Gespräch mit der Philosophin Johanna Seibt, die an der Universität Aarhus im neuen Forschungsbereich der „Robophilosophy“ forscht und dazu eine alle zwei Jahre stattfindende Konferenz ins Leben gerufen hat – 2020 wurde sie vom 18. bis zum 21. August online veranstaltet.
Frau Seibt, was erwartet uns, wenn Roboter am Leben teilnehmen?Seit etwa zwei Jahrzehnten gibt es innerhalb der Robotik den neuen Forschungszweig der social robotics, soziale Robotik; im Gegensatz zu Industrierobotern sind sogenannte „soziale“ Roboter so gebaut und so programmiert, dass sie durch Aussehen, Bewegungsmuster, sprachliche Reaktionen, und ihre interaktiven Funktionsleistungen den Eindruck von sozialen Interaktionspartnern erwecken.
Interessanterweise waren die ursprünglichen Motivationen für die Entwicklung von Robotern mit „sozialer Intelligenz“ rein theoretisch, aber die praktischen Perspektiven lagen dann schnell auf der Hand. Roboter mit denen wir umgehen können „als ob sie Personen wären“ – wie Cynthia Breazeal 2002 den „Traum“ der sozialen Robotik formuliert hat – bieten prima facie die Möglichkeit, Menschen – oder zumindest menschliche Einzelleistungen im Rahmen einer Zusammenarbeit mit anderen Menschen – zu ersetzen.
Die neuesten Entwicklungen in der Artificial Intelligence (AI), besonders im Bereich der Gefühlserkennung und Sprachverarbeitung, scheinen die „soziale“ Robotik in der Tat zunehmend diesem Traum näherzubringen, und schon beginnen politische Entscheidungsträger konkret über den Einsatz sozialer Roboter in den Bereichen der Altenpflege, Erziehung, bei bestimmten Serviceleistungen der Kommunalverwaltung und so weiter nachzudenken. In Japan ist die Entwicklung der sozialen Robotik ganz ausdrücklich mit der Überalterung der Gesellschaft und dem entsprechenden Fachkräftemangel verbunden worden – siehe dazu Jennifer Robertsons Buch Robot Sapiens Japanicus (2018).
Im Gegensatz zu Industrierobotern sind sogenannte „soziale“ Roboter so gebaut und so programmiert, dass sie durch Aussehen, Bewegungsmuster, sprachliche Reaktionen, und ihre interaktiven Funktionsleistungen den Eindruck von sozialen Interaktionspartnern erwecken.
Johanna Seibt
Die öffentliche Diskussion ist gegenwärtig vor allem auf die Leistungen und Gefahren der Anwendung von Software-Programmen der künstlichen Intelligenz konzentriert, aber sobald diese Software „Beine bekommt“, ergeben sich noch ganz andere Dimensionen des Eingriffs in menschliche Handlungsräume, positiv und negativ. Der Slogan der industry 4.0 verdeckt die politische Dimension des automation age (McKinsey, 2017, A Future that Works), in dem für jede Tätigkeit ein automation potential berechnet wird. Momentan ist das Automationspotenzial von Tätigkeiten mit hohem Anteil an sozialer Interaktion eher gering, aber je mehr Fortschritte wir in der sozialen Robotik machen, desto mehr steigt das Automatisierungspotenzial dieser sozialen Tätigkeiten.
Die COVID19-Pandemie eröffnet noch eine ganz neue Perspektive auf die Einsatzmöglichkeiten von „sozialen“ Robotern – im Bereich der Telekommunikation. Wir haben ja nun alle erlebt, wie wichtig es offenbar für unsere Kommunikation ist, dass unser Gehirn den Interaktionspartner dreidimensional, physisch, wahrnehmen kann – einfache Informationsvermittlung mag ja per Zoom gut möglich sein, aber Entscheidungsprozesse und kreatives Denken miteinander sind ungleich schwieriger, meinem Erleben nach. Sogenannte Kommunikationsroboter, die es ermöglichen, dass die Signale von physisch distanzierten Gesprächspartner an anderer Stelle „verkörpert“ werden, bieten neue Formen der „Telepräsenz“.
Sie zitieren einen „Traum“ und erwähnen das Schlagwort der „robot revolution“ – geht es bei der „sozialen“ Robotik um eine Utopie?
Ich hoffe sehr, dass es uns gelingen wird, die Verwendung sogenannter „sozialer“ Roboter nicht durch den Markt bestimmen zu lassen, sondern als politische Maßnahme einzuführen und zu regulieren – durch den öffentlichen Wertediskurs, demokratisch legitimiert. Um dies zu ermöglichen, müssen wir aber neue interdisziplinäre Forschungsstrukturen, Ausbildungszweige und Berufsprofile schaffen, die gewährleisten können, dass der gesellschaftliche Wertediskurs sich nicht in Panikmache oder techno-utopischen Träumen verliert, sondern wissensbasiert verlaufen kann. Es gibt heutzutage in der Politik – in mehreren europäischen Ländern – eine Kombination von technologie-fixiertem Innovationsmanagement einerseits und Humanities bashing andererseits, was dazu führt, dass die Geisteswissenschaften gesellschaftlich als unwichtig und deshalb weniger förderungswürdig gelten. Wenn „soziale“ Robotik als politische Maßnahme gelingen soll, dann brauchen wir die Kulturexpertise als einen zentralen Bestandteil. Einfach gesagt: Noch nie waren die Sozial- und Geisteswissenschaften so wichtig wie gerade jetzt – je mehr die Technologie direkt, in der Rolle eines sozial Handelnden in die physischen und symbolischen Räume menschlicher Interaktion eindringt, desto mehr bedarf es einer Expertise, über die Ingenieure nicht verfügen.
Die Wirklichkeit der „sozialen“ Robotik ist äußerst vielschichtig und wirft tiefgehende sozial- und wertepolitische Fragen auf, die wir bis heute nicht einmal vernünftig formulieren, geschweige denn beantworten können.
Johanna Seibt
Um das genauer zu erklären, lassen Sie mich noch einmal zum „Traum“ vom „sozialen“ Roboter zurückkehren. Wovon träumen wir da eigentlich? Hier geht es nicht um etwas Neues – der menschliche Traum des mechanischen Gehilfen ist uralt, er zieht sich von der frühen Antike bis heute durch die westliche und östliche kulturelle Imagination. Es ist der Traum des unermüdlichen, unverwüstlichen Helfers der oft auch übermenschliche Kräfte oder Fertigkeiten besitzt. Hollywood liefert heutzutage treuherzige – siehe R2D2 und C3PO aus Star Wars – oder selbst-ironisierende – siehe TARS aus Interstellar – Versionen dieses alten Traums, der aus psychologischer Perspektive infantil erscheinen mag. Aber die kulturhistorische Langlebigkeit eines Traums ist keine Garantie für seine politische Umsetzbarkeit. Träume sind nicht konsistent, und vor allem: Träume sind nicht vollständig. Die Wirklichkeit der „sozialen Robotik ist äußerst vielschichtig und wirft tiefgehende sozial- und wertepolitische Fragen auf, die wir bis heute nicht einmal vernünftig formulieren, geschweige denn beantworten können.
Wir dürfen die Gestaltung unserer zukünftigen Sozialbeziehungen nicht (nur) der kulturellen Imagination der jungen Robotiker überlassen, die freilich die besten Absichten haben. Es gibt viele Einzelstudien, aber wir sind gegenwärtig noch weit davon entfernt, die psychologischen, soziologischen und politischen Folgen eines weitverbreiteten Einsatzes einschätzen zu können. Der Einbezug geisteswissenschaftlicher Expertise kann uns helfen, eine kulturell nachhaltige Form der sozialen Robotik zu entwickeln, die sich politisch auch umsetzen lässt.
„Human-Robot Interaction Research“ gibt es seit etwa anderthalb Jahrzehnten, wo steht die Diskussion um den praktischen Einsatz?
Eigentlich sollte es klar sein, dass man, wenn man mit einer neuen Art quasi-sozialer Agenten in die soziale Wirklichkeit eingreift, die Expertise aller relevanten wissenschaftlichen Disziplinen in Anspruch nehmen sollte. Dennoch arbeitet man an der „sozialen“ Robotik und der HRI – Human Robot Interaction Research – bis heute vornehmlich mit Fachdisziplinen wie meist Robotik, Psychologie, und Design Studies, was der Vielschichtigkeit unserer sozio-kulturellen Wirklichkeit nicht gerecht wird.
Sehr vereinfacht gesagt: Erstaunlicherweise hat man die Beiträge, die Anthropologie und Philosophie bei der Analyse neuer sozialer Praktiken leisten können, kaum ernstgenommen, und erstaunlicherweise haben umgekehrt viele Anthropologen und Philosophen bis heute nicht bemerkt, welche wichtigen Aufgaben im Bereich der „sozialen“ Robotik zu lösen wären. G. Verruggio hat 2004 zur Einrichtung der Robo-Ethics aufgerufen, und ich habe zusammen mit meinen Kollegen in Aarhus 2014 das neue Feld der Robophilosophy etabliert, da es nicht nur um ethische sondern auch weitreichende theoretische Fragestellungen geht. Die Robophilosophy Conference Series, die ich mit meinem Kollegen Marco Nørskov gegründet habe und organisiere, sind mittlerweile die größten Veranstaltungen zu Humanities Research in and on Social Robotics. Wir bereiten gerade die Robophilosophy 2020: Culturally Sustainable Robotics-Konferenz vom 18. bis 21. August 2020 vor, diesmal als Online-Event. In Dänemark sind wir mittlerweile soweit gekommen, dass auch die Empfehlungen des Ministeriums an die EU-Forschungsförderung im Bereich der Robot-Technologie die kulturelle Dimension ausdrücklich mit einbeziehen, und auch in Deutschland beginnt sich die Einsicht durchzusetzen, dass kulturell nachhaltige Anwendungen nur durch interdisziplinäre Entwicklerteams geschaffen werden können, bei denen die Geisteswissenschaftler von Anfang an einen festen Platz haben.
Können Sie an einem Beispiel erläutern, welche Fragen die „soziale“ Robotik aufwirft?
Stellen Sie sich vor, McDonalds würde in allen Filialen Verkaufsroboter mit dem Aussehen einer attraktiven Frau einführen. Welche kulturellen und sozial-politischen Signale würde dies senden? Und welche Signale sendet man an Pflegebedürftige und ihre Angehörigen, wenn man in Altenheimen Heberoboter anschafft, die wie große Teddybären aussehen? Zur kompetenten Behandlung dieser Fragen braucht man analytische Begriffe und Methoden der Ethik und Kulturexpertise, die im multi-disziplinären Repertoire der sozialen Robotik noch nicht fest verankert sind.
Die Robotethik hat seit längerem auf diese sozio-politischen Signalwirkungen von Design-Entscheidungen aufmerksam gemacht. Aber es gibt tieferliegende Probleme. Soziale Roboter mit bestimmten Eigenschaften lösen Mechanismen der vorbewussten sozialen Kognition beim Menschen aus. Wir neigen aufgrund unseres „sozialen Gehirns“ dazu, Roboter mit bestimmtem Aussehen und Bewegungsmustern als Artgenossen und sogar als moralische Subjekte misszuverstehen. Wir haben die Tendenz, solchen Robotern – die nicht einmal menschenähnlich aussehen müssen – bewusste Absichten, Gefühle, und sogar Rechte zuzuschreiben. Die soziale Robotik strebte zunächst danach, diese Tendenz zum Anthropomorphisieren gezielt auszunutzen. Mittlerweile ist man etwas vorsichtiger geworden. Die Tatsache, dass wir Roboter so bereitwillig in den Kreis der sozialen Agenten und sogar der moralischen Subjekte einschließen, Empathie für sie haben, selbst Sympathie empfinden, stellt uns vor ein fundamentales Problem, das über die Ethik hinausgeht, ein Beschreibungsproblem. Soziale Roboter sind keine Werkzeuge – sie sind etwas, für das wir noch gar keine Kategorie haben.
Wir neigen aufgrund unseres „sozialen Gehirns“ dazu, Roboter mit bestimmtem Aussehen und Bewegungsmustern als Artgenossen und sogar als moralische Subjekte misszuverstehen.
Johanna Seibt
Unsere soziale Kognition disponiert uns zur Verwendung von Beschreibungen, die sowohl falsch wie auch nicht ganz falsch sind. Ein Roboter „erkennt“, „antwortet“, „sieht“, „fragt“, „holt“, „wählt“ nichts – dazu bräuchte er Bewusstsein und andere kognitive Vermögen, die wir bisher als ausschließlich menschliche Fähigkeiten betrachtet haben. Solche Beschreibungen sind also falsch. Andererseits: Wären diese Beschreibungen richtig, würde man die Begriffe für menschliches soziales Handeln auf das rein äußerliche Verhalten reduzieren – der Roboter „erkennt mich“ ist eine angemessene Beschreibung, wenn man „erkennen“ mit der Ausführung eines bestimmten Verhaltens gleichsetzt. Derartig reduktive Interpretationen verwenden wir oft bei Tieren – ein Hund erkennt und begrüßt seinen Besitzer. Aber hier ist es klar, dass es um ein anderes, metaphorisches „erkennen“ und „begrüßen“ geht, denn der Hund sagt ja nicht: „Schön, dass Du endlich wieder da bist!“
Bei den „sozialen“ Robotern müssen wir uns hingegen fragen, wie wir hier begrifflich und normativ weitermachen sollen: Sollen wir die Anführungszeichen bei den „sozialen“ Robotern wegnehmen? Das heißt, sollen wir die alten Begriffe des sozialen Handelns verabschieden und zulassen, dass alles, was sich nach bestimmten Mustern verhält, ein sozialer Agent ist? Wenn Tiere Rechte haben, warum dann nicht auch Roboter? Oder sollen wir das alte Begriffsverständnis behalten und darauf insistieren, dass nur derjenige Rechte hat, der die Phänomenologie des Bewusstseins erlebt und darüber sprechen kann?
Wir kommen hier in die Fragen der theoretischen Philosophie, also der Philosophie des Geistes, und der Ontologie, wie auch der politischen Philosophie. Westliche demokratische Gesellschaften legitimieren politische Autorität mithilfe eines Personenbegriffs, der aus dem Aufklärungszeitalter stammt. Diesen Personenbegriff, der ganz eng mit den Fähigkeiten der menschlichen sozialen Subjektivität verbunden ist, stellt die „soziale“ Robotik nun in Frage. Im Mai 2016 schlug das Europäische Parlament vor, hochentwickelten Robotern den Status von Electronic Persons zuzuerkennen. Die anschließende Diskussion hat gezeigt, wie sehr unser politischen Denken erschüttert wird, wenn das, was immer zusammengehört hat – Person, soziales Subjekt, Vernunft, Intelligenz, Gefühl – plötzlich auseinandergerissen wird.
Oft ist davon die Rede, Roboter würden uns die Arbeit wegnehmen. Wie sehen Sie das?
Das ist die sozial-politische Dimension der „sozialen“ Robotik, die ich vorhin schon angedeutet habe. Bei einem umsichtigen Einsatz von „sozialen“ Robotern, der nach den Prinzipien der kulturell nachhaltigen Robotik entwickelt wurde, denke ich, dass es eher umgekehrt sein wird – neue Berufsprofile werden entstehen, und der Fokus wird auf der Zusammenarbeit mit „sozialen“ Robotern liegen. Dabei wird es darauf ankommen, genau zu untersuchen, welche Formen der Zusammenarbeit – Stichwort: bloße Koordination versus Kooperation versus Teamwork – möglich und zuträglich sind. Vor allem kommt es darauf an, wie diese beschrieben werden sollen, denn eigentlich – das ist ja das Paradoxe – können Roboter (zu Deutsch: Arbeiter) nicht wirklich „arbeiten“.
Neue Berufsprofile werden entstehen, und der Fokus wird auf der Zusammenarbeit mit „sozialen“ Robotern liegen.
Johanna Seibt
Die Expertise der Philosophie wird zunehmend mehr gefragt sein, insbesondere wenn sich die Politik für das Modell der Integrativen Sozialen Robotik entscheidet, aber auch unabhängig davon. Schon jetzt suchen AI-Firmen wie Deep Mind nach Ethikern. Aber, und das steckt in der Definition des neue Feldes der Robophilosophie als philosophy of, for, and by social robotics, die „soziale“ Robotik erlaubt es der Philosophie auch, neue Formen anzunehmen. Robophilosophen können technische Lösungen für ethische Probleme vorschlagen und diese experimentell untersuchen. Zum Beispiel untersuchen wir in Aarhus gerade, ob sich die soziale Ungerechtigkeit, die sich in Vorstellungsgesprächen durch gender bias – oder durch andere Vorurteile, die das Aussehen der Job-Anwärter*innen betreffen – ergibt, dadurch mindern lässt, dass man das Gespräch über einen Telekommunikationsroboter mit neutralem menschlichen Aussehen durchführt.
Wir hören viel über Bots in der politischen Kommunikation. Womit haben wir es da zu tun, im Vergleich zu Ihrem Modell?
Da geht es um verschiedene Dinge. Bei unserem Modell der ISR (Integrativen Sozialen Robotik) geht es um die Entwicklung kulturell nachhaltiger Anwendungen von physischen, „sozialen“ Robotern, in einem transparenten, wertegeleiteten, partizipativen Prozess, der die Expertise aller relevanten Fachdisziplinen und insbesondere Kulturexpertise einschließt. Bei den Bots, die gegenwärtig unsere politischen Prozesse stören, von der Kommunikation bis hin zur Wahlverfälschung, geht es ziemlich genau ums Gegenteil – um verdeckte, manipulative Prozesse, die von Machtinteressen geleitet sind.
Unabhängig von den Problemen der politischen Sicherheit, die das automatische Profiling schafft, unterschätzen wir, wie ich meine, wie sehr die Lernalgorithmen der gegenwärtigen AI unser bisheriges Verständnis von der Begründung politischer und juristischer Entscheidungsprozesse aushebeln könnte. Bisher haben sich diese Entscheidungsprozesse an ethischen Normen orientiert, die ihrerseits durch normative Praktiken wie den Expertendiskurs etabliert wurden. Nun beginnen wir das „reflektive Equilibrium des Expertendiskurses“ durch einen automatischen Prozess der Normeninduktion zu ersetzen, der sich an den ethischen Intuitionen von einer Anzahl an Nicht-Experten orientiert, die möglicherweise gar nicht repräsentativ sind. Ganz grundsätzlich stellt sich die Frage, inwieweit wir die menschliche Vernunft und die diskursiven Prozesse, die wir seit langer Zeit zur Bildung vernünftiger Entscheidungen verwendet haben, praktisch und auch theoretisch verabschieden.
Stefan Heidenreich (carta.info) führte das Interview per E-Mail.
0 Kommentare