Digital Services Act
Den Datenkraken Grenzen setzen
Welche Inhalte wir im Internet finden – welche Suchergebnisse, Videos oder Social-Media-Posts uns zuerst angezeigt werden – wird zunehmend von wenigen großen Internetkonzernen bestimmt. Damit beeinflussen sie nicht nur unser Konsumverhalten, sondern auch unsere politische Meinungsbildung. Der Digital Services Act der EU soll für mehr Transparenz sorgen.
Von Arne Cypionka
Schnell mal eine Information googeln, eine Nachricht über WhatsApp verschicken, ein neues Paar Schuhe bei Amazon kaufen, ein Video auf YouTube schauen oder sich durch den Instagram-Feed scrollen. Die meisten Dinge, die wir im Netz tun, verbinden wir ganz automatisch mit bestimmten Apps oder Webseiten.
Denn unsere Internetnutzung hat sich in den letzten Jahren zunehmend konzentriert: Ein Großteil unserer Onlineaktivitäten findet auf Plattformen von Google, Facebook und Amazon statt, zu denen unter anderem auch WhatsApp, YouTube und Instagram gehören. Diese Firmen, deren Geschäftsmodell maßgeblich auf der Sammlung persönlicher Daten beruht, haben sich über die Jahre in eine Quasi-Monopolstellung gebracht: Der große Netzwerkeffekt ihrer Plattformen erschwert kleinen Konkurrenten den Markteintritt; kaum ein*e Internetnutzer*in kommt noch an ihnen vorbei. Das bedeutet aber auch: Ihre Algorithmen bestimmen maßgeblich, welche Inhalte wir im Netz wahrnehmen, welche Nachrichten und Meinungen uns online begegnen und welche Produkte uns angeboten werden. Auf diese Weise haben die Plattformunternehmen nicht nur großen Einfluss auf unser Konsumverhalten, sondern auch auf unsere politische Meinungsbildung.
Gefangen in der Filterblase
Der Knackpunkt: Nach welchen Kriterien diese Inhalte für uns ausgewählt und sortiert werden, ist für Außenstehende kaum nachvollziehbar. Welche Posts etwa auf Facebook, Instagram oder YouTube an prominenter Stelle auftauchen und welche nicht, hängt einerseits von bezahlten Inhalten ab – Posts, die gegen Bezahlung verstärkt ausgespielt werden. Darüber hinaus kommen aber auch Algorithmen zum Einsatz, die für jede*n Nutzer*in individuell auswählen, welche Inhalte besonders passend oder aufregend sein könnten, und diese prominenter platzieren. Nach welcher Logik diese Empfehlungsalgorithmen arbeiten, kann niemand mit Sicherheit sagen, da die Quellcodes strenger Geheimhaltung unterliegen.
Dabei hat die Priorisierung Nebeneffekte, die sich sogar auf unser Weltbild auswirken: Wer auf YouTube beispielsweise bei Bundestagsreden der Partei Alternative für Deutschland (AfD) einsteigt, landet über die Empfehlungen schnell bei angeblichen Wirtschaftsexpert*innen, die vor dem unmittelbar bevorstehenden Systemkollaps warnen und teils offen antisemitisch hetzen. Zusammengefasst wird dieser Effekt mit dem Begriff der Filterblase: Im Netz mag man sich grundsätzlich zu jeder Meinung informieren können – dennoch sehen wir meist nur das, was ohnehin unserer Meinung entspricht. Dass die Empfehlungsalgorithmen zudem emotionalisierende Inhalte bevorzugen, führt dazu, dass etwa Hassbotschaften und Verschwörungstheorien in entsprechenden Kreisen besondere Verbreitung finden, wohingegen moderate Stimmen eher untergehen.
An den Effekten der Empfehlungsalgorithmen und an der Tatsache, dass deren Mechanismen geheim gehalten werden, hat sich zuletzt viel Kritik geregt. Ebenso daran, dass Hassbotschaften und gezielt lancierte Lügengeschichten – Fake News – online eine hohe Reichweite erzielen. Die Plattformbetreiber*innen gingen bisher eher halbherzig dagegen vor und verwiesen auf die Eigenverantwortung und Vernunft der Nutzer*innen. Auch die eingeführte Kennzeichnung einiger Fake-News-Verbreiter als irreführend änderte wenig daran, dass die Algorithmen viele Nutzer*innen nach wie vor Stück für Stück an Hetze und Rechtsextremismus heranführen.
Ein Versuch, mehr Transparenz zu schaffen
Um diese gefährliche Dynamik unter Kontrolle zu bringen, braucht es gesetzliche Rahmenbedingungen. Ein Versuch der Europäischen Union (EU), Grundregeln für die Konzerne aufzustellen, ist der Gesetzesentwurf des Digital Services Act vom Dezember 2020, der allerdings noch vom Europäischen Parlament und den Mitgliedsstaaten ratifiziert werden muss. Demzufolge sollen große Plattformen mit weltweit mehr als 45 Millionen Nutzer*innen in Zukunft unter anderem dazu verpflichtet werden, ihre Algorithmen für unabhängige Prüfungen offenzulegen. Außerdem soll Nutzer*innen die Möglichkeit gegeben werden, diese individuell abzuschalten.
Ähnlich wie die Datenschutzgrundverordnung, die seit 2018 auf EU-Ebene gilt, könnte der Digital Services Act so zumindest etwas Transparenz schaffen. Auch weil er potenziell empfindliche Strafen vorsieht: Diese richten sich nach dem globalen Jahresumsatz der Unternehmen und könnten so bei den großen Plattformbetreibern leicht in die Milliardenhöhe gehen. Vorgesehen ist in dem Entwurf auch eine Verpflichtung zur Interoperabilität, was dazu beitragen könnte, die Plattform-Monopole zumindest etwas aufzubrechen: Konkret würde dies beispielsweise bedeuteten, dass Messenger wie WhatsApp den Nachrichtenaustausch auch mit anderen Diensten ermöglichen müssen. Dies würde kleineren Anbietern den Markteinstieg erleichtern.
Der Digital Services Act ist, wenn er ratifiziert wird, ein wichtiger Schritt für die Regulierung der Internetkonzerne. An deren grundlegender Geschäftspraxis ändert er allerdings nichts, denn Sammlung, Auswertung und Handel von persönlichen Daten blieben weiterhin fast uneingeschränkt möglich. Auch dass illegale Inhalte schneller entfernt werden sollen, ist zwar grundsätzlich begrüßenswert, bleibt aber mit dem Risiko eines Overblockings verbunden. Im Zweifelsfall gingen Facebook, Google und Co. hier bisher keine Risiken ein und löschten lieber zu viel als zu wenig. Dass bereits jetzt regelmäßig Posts verschwinden, die weder gegen Nutzungsbedingungen noch geltendes Recht verstoßen, werfen immer wieder die Grundfrage auf, an die sich auch der Digital Services Act nur tastend heranwagt: Wie viel Macht wollen wir den großen Plattformunternehmen und ihren Algorithmen über unsere Kommunikation geben? Sie sind zu einem mächtigen Akteur geworden, entziehen sich aber bisher fast jeder öffentlichen Kontrolle. Der Digital Services Act hat – wenn er denn in seiner jetzigen Form auch ratifiziert wird – das Potential, einige unkontrollierte Auswüchse zurechtzustutzen. Auf dem Weg zu einem digitalen Grundgesetz, das die Verantwortung der neuen Medien klärt, kann er aber nur ein erster Schritt sein.