Bilder und Verzerrung
Wie sehen normale Menschen aus?

Was ist eigentlich normal? Und was macht ein normales Gesicht aus? Unser Gehirn analysiert und klassifiziert jedes Gesicht, dem wir begegnen – und damit sind wir nicht allein. Eine gesamte wissenschaftlich-technische Disziplin analysiert solche unterbewussten kognitiven Prozesse und zerlegt sie in statistische Normalitäten. Maschinelles Lernen ermöglicht es sogar, mithilfe von Gesichtserkennung menschliches Verhalten einzuordnen und vorherzusagen.
Von Mushon Zer-Aviv
Das sprechende Porträt
Im 19. Jahrhundert machte Paris eine dramatische Entwicklung durch: Die industrielle Revolution zog Dorfbewohner*innen an, die ihr Glück in der Großstadt versuchten, was einen Trend zur Verstädterung auslöste, der bis heute anhält. Zum ersten Mal in ihrem Leben fanden sich gebürtige Pariser*innen ebenso wie Neulinge jeden Tag von nie gesehenen, unbekannten Gesichtern umgeben. Zusammen mit der zunehmenden Kluft zwischen Industriebürgertum und Arbeiterklasse rüttelten diese demografischen Veränderungen am sozialen Gefüge der Stadt. Mit der zunehmenden Entfremdung zwischen den Bewohner*innen wuchsen auf den Straßen Angst und Kriminalität.

Für Bertillon war es schlicht ein Indexierungssystem, das die Identifizierung erleichtern sollte. Und tatsächlich verbreitete sich die „Bertillonage“ schnell in Europa und den USA als bahnbrechende, wissenschaftlich fundierte erkennungsdienstliche Methode. Aber nur wenige Jahre später wurde diese zu Bertillons Enttäuschung durch den Fingerabdruck ersetzt, eine viel einfachere und genauere Technologie.
Was ist eigentlich normal?
Die Untersuchung des Fingerabdrucks gehörte zu den vielen wissenschaftlichen Beiträgen von Sir Francis Galton, einem umtriebigen britischen Intellektuellen und Statistikpionier. Eine weitere wichtige Entdeckung Galtons war die Normalverteilung. Er beobachtete, dass scheinbar zufällige Phänomene oft ein Wahrscheinlichkeitsmuster zeigten, das um eine gekrümmte Spitze in Form einer Glocke verteilt ist – die „Glockenkurve“. Diese Phänomene verschmelzen meist näher an der Spitze der Glockenkurve als an ihren Rändern.

Diese praktische mathematische Formulierung trug dazu bei, dass die statistische Normalität viel mehr als nur ein wissenschaftlicher Standard wurde. Galton strebte danach, jeden Aspekt des Lebens durch die statistische Brille zu betrachten. Bald schon sollte sein Normalitätsbegriff über die Naturwissenschaften hinaus Anwendung finden. Vor Galtons Forschungen am Ende des 19. Jahrhunderts war es sehr ungewöhnlich, das Wort „normal“ zu verwenden, um etwas außerhalb der Naturwissenschaften zu beschreiben. Gleichzeitig wurde der Begriff der Normalität selbst schnell normalisiert. Durch die Arbeit von Émile Durkheim und anderen Soziolog*innen hielt er Einzug in die Sozialwissenschaften und die Alltagskultur.
Normales oder abweichendes Gesicht?
1893 besuchte Galton das forensische Labor von Bertillon und war begeistert. Es interessierte ihn nicht, was Bertillons Werkzeuge und Methoden über die Verantwortung von Einzelpersonen für vergangene Verbrechen aufdecken konnten. Vielmehr wollte er künftige Abweichungen statistisch vorraussagen.


Bertillon selbst wollte nie, dass seine Technologie so eingesetzt wird. Als er mit den wissenschaftlichen Rassismustheorien des zeitgenössischen italienischen Kriminologen Cesare Lombroso konfrontiert wurde, sagte Bertillon: „Nein. Ich bin nicht überzeugt, dass der Mangel an Symmetrie im Gesicht oder die Größe der Augenhöhle oder die Form des Kiefers einen Menschen zu einem Übeltäter macht.“
Bertillon argumentierte, er habe in seinem forensischen Labor sehr viele Gesichter gesehen. Zum Beispiel, sagte er weiter, deute ein Augenfehler nicht darauf hin, dass die Person schon als Kriminelle*r geboren worden sei, sondern dass ihr schlechtes Sehvermögen ihr möglicherweise nur wenige Alternativen auf dem Arbeitsmarkt gelassen habe.
Bertillon stellte den Körper in Form von Daten dar, um vergangenes Verhalten zu identifizieren und zu korrelieren. Es ging ihm keineswegs darum, künftige Handlungen zu erahnen oder vorherzusagen. Allerdings ermöglichte genau diese Datenerfassung und Kategorisierung von Verhalten und persönlichen Merkmalen sowohl eine forensische Identifizierung als auch eine statistische Vorhersage. Wissenschaftlich sanktionierter Rassismus und Physiognomie sollten das 20. Jahrhundert prägen. In seinem Buch Mein Kampf bezieht sich Adolf Hitler auf US-amerikanische Eugenik als wichtige Voraussetzung für das, was sich in Deutschland später zur Nazi-Eugenik entwickeln sollte. Ihren grauenvollen Höhepunkt erreichte diese Denkweise und Praxis mit der Massenvernichtung und dem Genozid an Jüd*innen, Roma, Homosexuellen, Menschen mit Behinderung und anderen, die als abweichend vom normalisierten rassistischen Arier*innenbild gekennzeichnet waren. Nach der Niederlage der Nationalsozialst*innen im Zweiten Weltkrieg wurden die Ideen der Physiognomie und des wissenschaftlichen Rassismus international verurteilt. In den Folgejahren schlummerten sie unter der Oberfläche, doch sie verschwanden nicht, denn sie waren tief in das Erbe der statistischen Normalität eingewoben.
Das Porträt spricht wieder
Durch die rasanten Fortschritte in der computergestützten Statistik erlebte die Gesichtsanalyse im zweiten Jahrzehnt des 21. Jahrhunderts ein dramatisches Comeback. Die heutigen „Data Scientists“ sind direkte intellektuelle Nachfahren der Statistik- und Datafication-Pioniere des 19. Jahrhunderts. Einige von ihnen konzentrieren sich auf die Identifizierung von Personen und nehmen Bertillons Versuche wieder auf, Personen forensisch zu identifizieren, indem sie alte und neue Daten abgleichen. Andere konzentrieren sich wie Galton auf die Analyse und versuchen, künftiges Verhalten anhand von Mustern aus der Vergangenheit statistisch vorherzusagen. Heute werden Identifizierung und Vorhersage häufig kombiniert, um die Technologie optimal zu nutzen. So kündigte Facebook auf behördlichen Druck hin im November 2021 an, die Gesichtserkennung zur Identifizierung von Benutzer*innen in Bildern einzustellen. Das Unternehmen erwähnte, dass dies Auswirkungen auf seinen „Automatic Alt Text“-Dienst haben werde, der Bilder analysiert, um deren Inhalt automatisch in Textform zu beschreiben.
Rechenzentren sammeln immer mehr Daten an. Sie zeichnen ein immer genaueres Porträt unseres bisherigen Verhaltens, das dann algorithmische Vorhersagen speist. Ähnlich wie bei Galtons zusammengesetzten Porträts wird das Bild des normalen Verhaltens aus mehreren überlagerten Mustern verschiedener Personen konstruiert. Jede Information durchläuft dabei eine algorithmische Blackbox, um dann ihren Weg in die Glockenkurve des künftigen normalisierten Verhaltens zu finden. Normalisierung durch Daten wird zur selbst erfüllenden Prophezeiung. Sie sagt nicht nur die Zukunft voraus, sondern sie diktiert die Zukunft. Wenn es am sichersten ist, auf den vorhergesagten Weg zu setzen, wird die Wette auf eine Abweichung zum finanziellen, kulturellen und mitunter auch politischen Risiko. So normalisieren datengesteuerte Vorhersagen die Vergangenheit und verhindern Veränderungen. Algorithmen für maschinelles Lernen sind daher von Natur aus konservativ: Sie können nur vorhersagen, wie Muster aus der Vergangenheit wiederholen werden, aber nicht, wie sie sich entwickeln könnten.
Der Diskurs über Online-Datenschutz beeinflusst immer noch die Diskussion über das Recht einer Person, frühere Aktivitäten geheim zu halten. Doch die heutigen algorithmischen Überwachungsapparate interessieren sich nicht unbedingt für unsere früheren persönlichen Aktivitäten. Sie interessieren sich für das Bild, das unsere zusammengesetzten Porträts offenbaren – jenes Bild, das den Weg der Normalität definiert und Abweichungen von der Norm verdächtig macht.
Online-Normalisierung
Wie Maschinen kategorisieren auch wir Menschen ständig fremde Gesichter. Wir erfassen, kategorisieren und analysieren die physiognomischen Merkmale unseres Gegenübers. Aber sind wir uns unserer alltäglichen Vorurteile bewusst, der Art und Weise, wie wir ständig definieren, was normal ist und was nicht? Wie kategorisieren wir Menschen und wie werden wir kategorisiert? Genau darum geht es beim Projekt Normalizi.ng. Bei diesem experimentellen Online-Forschungsprojekt hilft maschinelles Lernen, zu analysieren und zu verstehen, wie wir entscheiden, wer „normaler“ aussieht.
Wer an Normalizi.ng teilnimmt, durchläuft drei Schritte, die schon sehr lange typisch für die Statistikanalyse sind. Im ersten Schritt – capture (Erfassung) – werden die Proband*innen aufgefordert, ihre Gesichter in einen Rahmen zu halten und ein Selfie aufzunehmen. Im zweiten Schritt – classify (Kategorisieren) – sehen sie einige zuvor erfasste Teilnehmende. Sie wischen dann nach rechts und links, um zwischen je zwei Bildern eine Auswahl zu treffen: Welche Nase, welcher Mund, welches Augenpaar und welches Gesicht sieht „normaler“ aus? Im dritten Schritt – der Analyse – untersucht der Algorithmus ihre Gesichter und ihre Normalisierungsentscheidungen. Diese werden, ähnlich wie bei der Bertillonage, auf einer Karteikarte mit dynamischen Normalisierungswerten abgelegt. Die Gesichter der Proband*innen werden anschließend einer vom „portrait parlé“ inspirierten algorithmischen Karte der Normalität hinzugefügt.

Unbekannte Gesichter sind ein wesentlicher Grund, dass Paris und viele andere Metropolen so aufregend sind und eine Fülle an Chancen bieten. Paris wird nie wieder eine homogene Kleinstadt sein. Das Internet auch nicht. Der Algorithmus ist der Polizist, der dich nur als ein Stereotyp sieht, dich nie persönlich kennt und auch nicht mit deiner Mutter spricht. Halten wir inne und fragen uns: Wollen wir das systematisieren? Automatisieren? Verstärken? Und sollte Normalität überhaupt ein Thema für die Polizei sein?