Emotion Recognition Technologies
„Wir können nicht von Vorteilen sprechen“
Was bedeutet es, wenn Computer Emotionen erkennen und entschlüsseln? Ein Interview mit Alexa Hagerty, Forscherin für ethische Fragen zu Künstlicher Intelligenz an der Universität Cambridge.
Frau Hagerty, Sie haben mit anderen Wissenschaftler*innen die Website „Emojify.info“ entwickelt, die viel positives Feedback erhalten hat. Was sind die Ziele der Website?
Wir haben „Emojify“ entwickelt, um die Grenzen und Auswirkungen von emotion recognition technologies (ERT, Technologien zur Erkennung von Emotionen) durch Animationen, Serious Games und Fragen näherzubringen. Es zeigt, wie Computer Gesichtsausdrücke scannen können, um Emotionen zu erkennen und zu entschlüsseln. Wir wollen das Verständnis der Öffentlichkeit für und die Einstellung zu ERTs erforschen und eine öffentliche Diskussion über die möglichen gesellschaftlichen Auswirkungen anstoßen.
Wie funktioniert die Website?
Sie vermittelt den Spieler*innen praktische Erfahrungen in der Interaktion mit einem ERT, wobei die Frage im Mittelpunkt steht: Werden Sie durch die Emotionserkennungstechnologie „emojifiziert“? Das erste Spiel „Wink/Blink“ zeigt Bilder von Zwinkern oder Blinzeln und fordert die Spieler*innen auf, zu erraten, um welches Bild es sich handelt – und demonstriert damit, dass ein ERT-Modell nicht dasselbe tun kann, weil es die kontextuellen Informationen, die die beiden unterscheiden, nicht verstehen kann. Bei „Fake Smile“" müssen die Spieler*innen das Modell austricksen, indem sie sich schnell durch verschiedene Gesichtsausdrücke bewegen und so zeigen, dass äußere Ausdrücke nicht unbedingt Ausdruck des inneren Gefühlszustands sind. Nach dem Spiel werden den Benutzer*innen Fragen gestellt, um ihr neues Verständnis von ERT zu überprüfen.
Wo sehen Sie Risiken?
Was die rassistische Voreingenommenheit betrifft, so hat eine Studie gezeigt, dass Systeme die Gesichter schwarzer Menschen durchweg als wütender interpretieren als die Gesichter weißer Menschen. ERTs sind, wie alle Formen der KI-basierten Gesichtserkennung, anfällig für Voreingenommenheit, Diskriminierung und falsche Identifizierung, wenn es um Menschen geht, die von einer angenommenen weißen, europäisch-männlichen Norm des Aussehens abweichen.
ERTs basieren jedoch auch auf einer Theorie, die erstmals in den 1960er-Jahren von dem Psychologen Paul Ekman formuliert wurde. Sie besagt, dass menschliche Emotionen biologisch bedingt sind und sich nicht zwischen Kulturen unterscheiden. Insbesondere gibt es sechs grundlegende Emotionen – Freude, Traurigkeit, Angst, Wut, Überraschung und Ekel –, die nicht nur universell erlebt werden, sondern sich auch in einer universell einheitlichen Mimik ausdrücken. Diese vereinfachende Theorie wurde in den letzten Jahren zunehmend in Frage gestellt, wenn nicht sogar völlig entlarvt – aber das hat die Welle von ERTs von Unternehmen wie Microsoft, IBM und Amazon nicht davon abgehalten zu behaupten, diese „universellen“ Ausdrücke genau zu erkennen. „Es ist ein reduktionistisches Verständnis menschlicher Emotionen“, argumentiert der Anthropologe Igor Rubinov, der die Entwicklung der Website geleitet hat. Die Anwendung in der realen Welt sollte mit äußerster Vorsicht gehandhabt, wenn nicht sogar auf unbestimmte Zeit ausgesetzt werden.
Wie können die negativen Auswirkungen der ERT minimiert werden?
Diese Technologie muss wissenschaftlich überprüft, einer soliden Menschenrechtsprüfung unterzogen und politisch reguliert werden, und einige Anwendungen – möglicherweise alle – sollten verboten werden, da sie nicht mit Menschenrechten vereinbar sind.
Hat ERT überhaupt Vorteile?
Wir können nicht von Vorteilen sprechen, wenn eine Technologie grundlegend fehlerhaft und diskriminierend ist und noch nicht ordnungsgemäß reguliert wurde.
Wo wird ERT eingesetzt?
Viele Unternehmen nutzen ERT, um die Reaktionen der Kunden*innen auf ihre Produkte zu testen. Sie kann auch in Situationen wie bei der Einstellung von Personal, bei der Flughafensicherheit, um Gesichter zu erkennen, die auf Täuschung oder Angst hindeuten, bei der Grenzkontrolle, bei der Polizei, um gefährliche Personen zu identifizieren oder im Bildungswesen eingesetzt werden, um das Engagement von Schülern*innen bei ihren Hausaufgaben zu überwachen.
Welche Unternehmen sind die Hauptakteure, die ERT einsetzen?
Dies ist nicht öffentlich bekannt. In den meisten Fällen wissen wir nicht, wo und wie die Technologie eingesetzt wird. Sie wird größtenteils ohne öffentliches Wissen oder Zustimmung eingesetzt und oft in andere Formen biometrischer Technologie wie Gesichtserkennungssysteme integriert. Im Rahmen unserer Nachforschungen konnten wir jedoch einige aktuelle Verwendungszwecke feststellen, die Sie unter emojify.info/resources finden.
Wir haben „Emojify“ entwickelt, um die Grenzen und Auswirkungen von emotion recognition technologies (ERT, Technologien zur Erkennung von Emotionen) durch Animationen, Serious Games und Fragen näherzubringen. Es zeigt, wie Computer Gesichtsausdrücke scannen können, um Emotionen zu erkennen und zu entschlüsseln. Wir wollen das Verständnis der Öffentlichkeit für und die Einstellung zu ERTs erforschen und eine öffentliche Diskussion über die möglichen gesellschaftlichen Auswirkungen anstoßen.
Wie funktioniert die Website?
Sie vermittelt den Spieler*innen praktische Erfahrungen in der Interaktion mit einem ERT, wobei die Frage im Mittelpunkt steht: Werden Sie durch die Emotionserkennungstechnologie „emojifiziert“? Das erste Spiel „Wink/Blink“ zeigt Bilder von Zwinkern oder Blinzeln und fordert die Spieler*innen auf, zu erraten, um welches Bild es sich handelt – und demonstriert damit, dass ein ERT-Modell nicht dasselbe tun kann, weil es die kontextuellen Informationen, die die beiden unterscheiden, nicht verstehen kann. Bei „Fake Smile“" müssen die Spieler*innen das Modell austricksen, indem sie sich schnell durch verschiedene Gesichtsausdrücke bewegen und so zeigen, dass äußere Ausdrücke nicht unbedingt Ausdruck des inneren Gefühlszustands sind. Nach dem Spiel werden den Benutzer*innen Fragen gestellt, um ihr neues Verständnis von ERT zu überprüfen.
Wo sehen Sie Risiken?
Was die rassistische Voreingenommenheit betrifft, so hat eine Studie gezeigt, dass Systeme die Gesichter schwarzer Menschen durchweg als wütender interpretieren als die Gesichter weißer Menschen. ERTs sind, wie alle Formen der KI-basierten Gesichtserkennung, anfällig für Voreingenommenheit, Diskriminierung und falsche Identifizierung, wenn es um Menschen geht, die von einer angenommenen weißen, europäisch-männlichen Norm des Aussehens abweichen.
ERTs basieren jedoch auch auf einer Theorie, die erstmals in den 1960er-Jahren von dem Psychologen Paul Ekman formuliert wurde. Sie besagt, dass menschliche Emotionen biologisch bedingt sind und sich nicht zwischen Kulturen unterscheiden. Insbesondere gibt es sechs grundlegende Emotionen – Freude, Traurigkeit, Angst, Wut, Überraschung und Ekel –, die nicht nur universell erlebt werden, sondern sich auch in einer universell einheitlichen Mimik ausdrücken. Diese vereinfachende Theorie wurde in den letzten Jahren zunehmend in Frage gestellt, wenn nicht sogar völlig entlarvt – aber das hat die Welle von ERTs von Unternehmen wie Microsoft, IBM und Amazon nicht davon abgehalten zu behaupten, diese „universellen“ Ausdrücke genau zu erkennen. „Es ist ein reduktionistisches Verständnis menschlicher Emotionen“, argumentiert der Anthropologe Igor Rubinov, der die Entwicklung der Website geleitet hat. Die Anwendung in der realen Welt sollte mit äußerster Vorsicht gehandhabt, wenn nicht sogar auf unbestimmte Zeit ausgesetzt werden.
Diese Technologie muss wissenschaftlich überprüft und politisch reguliert werden.
Alexa Hagerty
Diese Technologie muss wissenschaftlich überprüft, einer soliden Menschenrechtsprüfung unterzogen und politisch reguliert werden, und einige Anwendungen – möglicherweise alle – sollten verboten werden, da sie nicht mit Menschenrechten vereinbar sind.
Hat ERT überhaupt Vorteile?
Wir können nicht von Vorteilen sprechen, wenn eine Technologie grundlegend fehlerhaft und diskriminierend ist und noch nicht ordnungsgemäß reguliert wurde.
Wo wird ERT eingesetzt?
Viele Unternehmen nutzen ERT, um die Reaktionen der Kunden*innen auf ihre Produkte zu testen. Sie kann auch in Situationen wie bei der Einstellung von Personal, bei der Flughafensicherheit, um Gesichter zu erkennen, die auf Täuschung oder Angst hindeuten, bei der Grenzkontrolle, bei der Polizei, um gefährliche Personen zu identifizieren oder im Bildungswesen eingesetzt werden, um das Engagement von Schülern*innen bei ihren Hausaufgaben zu überwachen.
Welche Unternehmen sind die Hauptakteure, die ERT einsetzen?
Dies ist nicht öffentlich bekannt. In den meisten Fällen wissen wir nicht, wo und wie die Technologie eingesetzt wird. Sie wird größtenteils ohne öffentliches Wissen oder Zustimmung eingesetzt und oft in andere Formen biometrischer Technologie wie Gesichtserkennungssysteme integriert. Im Rahmen unserer Nachforschungen konnten wir jedoch einige aktuelle Verwendungszwecke feststellen, die Sie unter emojify.info/resources finden.
Alexa Hagerty ist eine der Rednerinnen auf dem Festival „Wenn Maschinen Zukunft träumen – Ein Festival zum Leben mit Künstlicher Intelligenz“ in Dresden.
Festival „Wenn Maschinen Zukunft träumen“
12.–14. November 2021
Deutsches Hygiene-Museum, Dresden
und online