Ob im Journalismus, auf Social Media, bei der Lektüre von Romanen oder im Klassenzimmer. Künstliche Intelligenz prägt die Sprache in unserem Alltag. Sie kann Bias reproduzieren – aber auch dabei helfen, gegen Diskriminierung vorzugehen.
Wie sich künstliche Intelligenz auf Sprache und Textproduktion auswirkt, und wieso diskriminierende Sprache schon in Schulen thematisiert werden muss, dazu sind in diesem Dossier verschiedene Perspektiven zusammengestellt. Sie waren der Auftakt zu Veranstaltungen, mit denen wir die Themen von Artificially Correct öffnen möchten und die Diskussion bereits dort beginnen, wo Textproduktion für viele beginnt: In der Schule.
KI & Textproduktion
Wir wissen zwar nicht, was uns die Algorithmen von morgen sagen werden, aber ihre Antworten basieren auf den Fragen, die wir stellen, und den Maßnahmen, die wir heute ergreifen. Es ist unsere Pflicht uns selbst und der Zukunft gegenüber sicherzustellen, dass sie gut sind.
Künstliche Intelligenz und Falschmeldungen Wenn Roboter verzerrte Inhalte in den sozialen Medien erzeugen
Weltweit setzen Organisationen Systeme Künstlicher Intelligenz (KI) in großem Umfang ein. Jedoch werden diese Systeme nicht immer vorteilhaft genutzt und treffen auch nicht immer die besten Entscheidungen. In diesem Artikel behandle ich anhand von drei Beispielen drei Typen Roboter, die voreingenommene Inhalte erzeugen können: Social Bots, die Desinformation verbreiten, verzerrende KI‑Tools und synthetische Profile.
Datenjournalismus Auf der Jagd nach verborgenen Mustern
Künstliche Intelligenz (KI) spielt im Journalismus schon heute eine wichtige Rolle: Algorithmen finden Geschichten in großen Datensätzen und erzeugen automatisch Tausende Texte. Schon bald könnte KI zu einer kritischen Infrastruktur der Medienproduktion werden.
Mit Künstlicher Intelligenz kommunizieren Meta – ein Chatbot gegen Diskriminierung
Said Haiders Vision ist es, die 110 bei Diskriminierung zu entwickeln. Mit seinem Team hat der Gründer und Geschäftsführer von Meta den ersten Chatbot entwickelt, der Diskriminierte, die Rat suchen, über ihre Rechte informiert – 24 Stunden am Tag, sieben Tage in der Woche.
Der künstliche Autor Wie KI unser Schreiben über Fakten und Fiktionen verändern könnte
Künstliche Intelligenz (KI) könnte unser Schreiben grundlegend verändern. KI kann zu jedem Thema riesige Mengen umfangreicher Inhalte erzeugen, Fakten von Fiktion trennen und Dichter*innen und Drehbuchautor*innen kreative Impulse geben. Aber was sollen wir von diesem revolutionären Tool halten? Und könnte der endlose Output von Rechnern etwas enthüllen, was uns selbst verborgen ist?
Expert*innen-Statements „Die Zusammenarbeit von Menschen und Maschinen muss neu definiert werden“
Welche Arten von Bias lassen sich in Texten finden, die mit Hilfe von Künstlicher Intelligenz entstanden? Und welche Lösungsansätze gibt es, um Realitätsverzerrungen abzuschwächen oder gar zu vermeiden? Darüber haben wir mit fünf Expert*innen aus Großbritannien, Deutschland, den Niederlanden und der Schweiz gesprochen.
Sprache und Machtverhältnisse
Die Schule als Institution trug und trägt dazu bei, dass gewisse Menschen unsichtbar waren oder sind. Es muss ein Umfeld geschaffen werden, in dem junge Menschen ihr Coming-out wagen und dafür nicht gemobbt werden – und das ist derzeit leider nicht der Fall.
Sovia Szymula
Im Gespräch mit Gesche Ipsen Übersetzen kann Machtverhältnisse ausgleichen
In „Sprache und Sein“ geht Kübra Gümüşay der Frage nach, wie Sprache unser Denken prägt und Machtverhältnisse unserer Gesellschaft bestimmt. Nun erschien das Buch in englischer Übersetzung. Wir haben uns mit der Übersetzerin, Gesche Ipsen, über ihre Arbeit am Buch und die sprachliche Macht des Übersetzens unterhalten.
Sovia Szymula im Gespräch „Es braucht mehr als gegendertes Unterrichtsmaterial“
Wie gehen Lehrende mit geschlechtersensibler Sprache um? Finden nicht‑binäre Personen ihren Platz in der Schule? Im Gespräch berichtet Lehramtsstudent*in und queere*r Rapper*in Sovia Szymula alias LILA SOVIA über persönliche Erfahrungen.
Rassistische Sprache in der Schule „Sprache schafft Wirklichkeit“
Diskriminierende Sprache ist in vielen Schulen Alltag. Die Aktivistinnen des Hamburger Vereins We A.R.E. wollen sich damit nicht länger abfinden. In einem Interview hat sich unsere Autorin erklären lassen, was rassistische Sprache mit Kindern macht.
Vorurteile von Künstlicher Intelligenz Übersetzungstools sensibler gestalten
Um Texte schnell in eine andere Sprache zu übersetzen, nutzen viele nahezu täglich eine Übersetzungssoftware wie „Google Translate“. Aber auch diese Tools geben in den übersetzten Sprachversionen häufig gesellschaftliche Vorurteile wieder.
Im Gespräch mit Michal Měchura Wenn die Maschine den Menschen fragt
Der Sprachtechnologe Michal Měchura wollte immer schon ein Tool, das es Übersetzungsmaschinen ermöglicht, in Zweifelsfällen den Menschen Fragen zu stellen. Mit Fairslator hat er selbst solch ein Tool entwickelt. Michal spricht mit uns über Bias und Mehrdeutigkeit in maschinellen Übersetzungen.
Schwierig zu übersetzende Begriffe
Die Macht der Sprache in maschineller Übersetzung
Sprache ist ein integraler Teil von Kommunikation, Kunst, Kultur und sozialen Strukturen. Einzelne Wörter können dabei eine enorme Macht ausüben.
Othering ~ Andern 10 schwierig zu übersetzende Begriffe in Bezug auf Identitäten
Übersetzungen sind wahnsinnig herausfordernd: Historische, geographische, politische und soziale Kontexte müssen mitgedacht werden. In ihrem Gastbeitrag beschäftigen sich die beiden Literaturwissenschaftlerinnen und Herausgeberinnen der Plattform „poco.lit.“ Lucy Gasser und Anna von Rath mit den Sprachen Deutsch und Englisch und thematisieren 10 schwierig zu übersetzende Begriffe in Bezug auf Identitäten.
Race ≠ Rasse 10 schwierig zu übersetzende Begriffe in Bezug auf Race
Übersetzungen sind wahnsinnig herausfordernd: Historische, geographische, politische und soziale Kontexte müssen mitgedacht werden. In ihrem Gastbeitrag beschäftigen sich die beiden Literaturwissenschaftlerinnen und Herausgeberinnen der Plattform „poco.lit.“ Lucy Gasser und Anna von Rath mit den Sprachen Deutsch und Englisch und thematisieren 10 schwierig zu übersetzende Begriffe in Bezug auf Race.
Sprache definiert die Welt. Das Goethe-Institut steht für eine inklusive Sprache – und damit für eine inklusive Welt.
Mit Artificially Correct entwickeln wir mit Expert*innen Tools, die den Bias in Texten minimieren und erhöhen das Bewusstsein für einen kritischen Umgang mit Sprache.
Konkret beschäftigt sich Artificially Correct mit KI-basierten Übersetzungs- und Schreibtools und den Verzerrungen (z.B. gender-/racial-Bias), die sie generieren können. Artificially Correct schafft ein aktives Netzwerk an Menschen, die dieses Problem betrifft – Übersetzer*innen, Aktivist*innen und Expert*innen – und identifiziert Partner, die das Thema gemeinsam mit uns langfristig verfolgen. Wir bündeln Perspektiven, schaffen Aufmerksamkeit, vermitteln Wissen und regen die Diskussion an.
Zusammenfassung der Ergebnisse Artificially Correct Hackathon 2021
Zwischen dem 1. und 3. Oktober 2021 kamen Übersetzer*innen, Aktivist*innen und Softwareentwickler*innen aus der ganzen Welt zusammen, um am Artificially Correct Hackathon des Goethe-Instituts teilzunehmen. 12 Teams hatten 52 Stunden Zeit (in denen sie viel Kaffee brauchten), um eine Mission zu erfüllen: innovative, zukunftsweisende Ideen und Projekte zu entwickeln, die helfen, Bias in Sprache und maschineller Übersetzung zu bekämpfen.
Im Gespräch mit Bias By Us
Das Team BiasByUs entwickelte beim Artificially Correct Hackathons eine Website, die als „Bibliothek“ für Bias in Übersetzungen dient. Sie sammeln vorurteilsbelastete Übersetzungsbeispiele, die typischerweise in Übersetzungsprogrammen auftreten, mithilfe von Crowdsourcing. Im Video-Interview sprechen Sie über die Problematik von Bias in Übersetzungen, ihren Lösungsansatz, wie es war, am Artificially Correct Hackathon teilzunehmen und vieles mehr.
Im Gespräch mit Word 2 Vec
Word 2 Vec konzentrierte sich beim Artificially Correct Hackathon auf eine Schwachstelle von Google Translate und anderen Deep-Learning Systemen: die Schwierigkeit, komplexe Inhalte zu verstehen. Der Lösungsvorschlag des Teams ist ein Tool, das Bias reduziert, indem es Nutzer*innen anzeigt, wie anfällig ein Satz für Bias in Bezug auf Gender und Race ist. Hier könnt ihr mehr über ihren Lösungsansatz und ihre Hackathon-Erfahrung hören!