Vorträge
Data Engineering Stage - Vorträge mit Fokus auf Bias und Inklusion
Di, 27.09.2022 9:30 Uhr – 11:00 Uhr
Online
Programm
09:30 Ute Schmid (Otto-Friedrich-Universität Bamberg): Entwicklung erklärbarer KI-Systeme zur Verringerung von Automatisierungsverzerrungen und zur Stärkung des berechtigten Vertrauens in KI
Ob KI-Systeme und -Anwendungen bestimmte ethische Standards erfüllen, hängt von der Art und Weise ab, wie sie eingebettet und reguliert werden, aber auch von der Verfügbarkeit geeigneter KI-Methoden. Eigenschaften wie Transparenz, Erklärbarkeit, Fairness und Robustheit können nur durch geeignete KI-Methoden erreicht werden. In dem Vortrag werde ich zunächst grundlegende Eigenschaften des maschinellen Lernens vorstellen, einschließlich aktueller datenintensiver Deep-Learning-Methoden. Ich werde sowohl die Vorteile als auch die inhärenten Probleme des maschinellen Lernens aufzeigen (Blackbox-Modelle, unfaire Verzerrungen, mangelnde Robustheit). Schließlich wird die sogenannte dritte Welle von KI-Methoden - erklärende, interaktive und hybride Ansätze des maschinellen Lernens - vorgestellt.
09:45 Q&A
09:55 Ruben Bach (University of Mannheim) und Christoph Kern (LMU Munich), Caius-Project: Wenn kleine Entscheidungen große Auswirkungen haben: Auswirkungen des algorithmischen Profilings von Arbeitssuchenden auf die Fairness
Algorithmische Profilerstellung wird zunehmend im öffentlichen Sektor eingesetzt, um die Zuweisung begrenzter öffentlicher Ressourcen zu unterstützen. In der Strafjustiz beispielsweise dienen Algorithmen der Zuweisung von Interventions- und Überwachungsressourcen, Kinderschutzdienste nutzen Algorithmen, um Risikofälle gezielt zu behandeln und Ressourcen wie Hausinspektionen zur Erkennung und Kontrolle von Gesundheitsrisiken zuzuweisen, Einwanderungs- und Grenzkontrollen verwenden Algorithmen, um Bewerber*innen, die sich im Land aufhalten wollen, zu filtern und zu sortieren, und die öffentlichen Arbeitsverwaltungen nutzen Algorithmen, um Arbeitsuchende zu identifizieren, die Schwierigkeiten haben könnten, wieder eine Arbeit aufzunehmen, und um ihnen Unterstützungsprogramme zuzuweisen. Es werden jedoch Bedenken geäußert, dass Profiling-Instrumente ungerechte Entscheidungen nahelegen und damit (unbeabsichtigte) Diskriminierung verursachen. Bislang gibt es nur wenige empirische Bewertungen solcher potenziellen Nebenwirkungen. Anhand der algorithmengesteuerten Profilerstellung von Arbeitssuchenden als empirisches Beispiel zeigen wir, wie unterschiedliche Modellierungsentscheidungen in einer typischen Data-Science-Pipeline sehr unterschiedliche Auswirkungen auf die Fairness haben können. Wir zeigen auf, wie Fairness-Audits, statistische Techniken und sozialwissenschaftliche Methoden dazu beitragen können, Verzerrungen zu erkennen und abzumildern, und argumentieren, dass gemeinsame Anstrengungen erforderlich sind, um Fairness bei der algorithmischen Profilerstellung zu fördern.
10:10 Q&A
10:20 Atoosa Kasirzadeh (University of Edinburgh): Algorithmische Fairness und strukturelle Ungerechtigkeit: Einblicke aus der feministischen politischen Philosophie
Datengesteuerte Algorithmen, die Vorhersagen treffen, werden in großem Umfang zur Automatisierung und Steuerung wichtiger Entscheidungen eingesetzt, z. B. bei der Empfehlung von Kautionen und Bewährungsstrafen, der Verteilung medizinischer Ressourcen und der Vergabe von Hypotheken. Dennoch gibt es Berichte über schädliche Ergebnisse, die verletzliche Gruppen benachteiligen. Das wachsende Forschungsgebiet der "algorithmischen Fairness" zielt darauf ab, diese schädlichen Verzerrungen abzuschwächen. Die primäre Methodik besteht darin, mathematische Metriken vorzuschlagen, um die sozialen Schäden, die sich aus den verzerrten Ergebnissen eines Algorithmus ergeben, anzugehen. Die Metriken sind in der Regel durch Ideale der Verteilungsgerechtigkeit, wie sie von Politik- und Rechtsphilosophen formuliert wurden, motiviert oder inhaltlich darin verwurzelt. Die Perspektiven feministischer politischer Philosophen zur sozialen Gerechtigkeit wurden dagegen weitgehend vernachlässigt. Einige feministische Philosoph*innen haben die lokale Reichweite des Paradigmas der Verteilungsgerechtigkeit kritisiert und korrigierende Änderungen vorgeschlagen, um seine Grenzen zu überwinden. Der Vortrag bringt wichtige Erkenntnisse der feministischen politischen Philosophie zur algorithmischen Fairness und verfolgt drei Ziele. Erstens zeige ich, dass die algorithmische Fairness in ihrem derzeitigen Anwendungsbereich strukturelle Ungerechtigkeiten nicht berücksichtigt. Zweitens verteidige ich die Relevanz struktureller Ungerechtigkeiten für die algorithmische Fairness, wie sie in der zeitgenössischen philosophischen Literatur von Iris Marion Young entwickelt wurde. Drittens unternehme ich Schritte zur Entwicklung des Paradigmas der "verantwortungsvollen algorithmischen Fairness", um Fehler im derzeitigen Anwendungsbereich und der Umsetzung der algorithmischen Fairness zu korrigieren und schließe mit einigen Überlegungen zu zukünftigen Forschungsrichtungen.
10.35 Q&A und Diskussion
Das Programm findet auf Englisch statt.