Künstliche Intelligenz und Frieden
„Wir brauchen den politischen Willen“
Wenn Menschen an den Einsatz von Künstlicher Intelligenz (KI) in der Kriegsführung denken, dann meistens an „Killerroboter“, Drohnen. Aber könnte Künstliche Intelligenz auch für friedenserhaltende Operationen eingesetzt werden? Über das Für und Wider von KI in Friedensmissionen erzählt Angela Kane, ehemalige Beigeordnete Generalsekretärin der Vereinten Nationen.
Frau Kane, sie haben eine Zeit lang für die Vereinten Nationen gearbeitet. Wann haben Sie zum ersten Mal die Bedeutung von Technologien im Zusammenhang mit nationalen Sicherheitsinteressen und die möglichen Auswirkungen dieser Technologien erkannt?
Ich habe 37 Jahre lang für die UN gearbeitet, was eine unglaublich lange Zeit ist. Ich bin also ein echter Dinosaurier. Zum ersten Mal kam ich mit KI, oder vielmehr mit Technologien als mit KI, in Berührung, als ich 1995 eine neue Stelle in der Hauptabteilung Presse und Information antrat. Sie waren gerade mit ihrer ersten Website an den Start gegangen. Das waren aufregende Zeiten. In den folgenden zwei Jahren war ich ausschließlich mit Webentwicklung beschäftigt. Mit der Zeit wurden immer mehr Dinge online gestellt. Im Grunde war dies der Startschuss für mein späteres Interesse an künstlicher Intelligenz. Webentwicklung hatte rein gar nichts mit „Intelligenz“ zu tun, es war reine Technologie, doch mit Technologie ließ sich unglaublich viel erreichen. Und man konnte sehen, was alles möglich war, wenn Menschen Zugang zu Informationen erhielten. Was dies tatsächlich für den Frieden bedeutete und welchen Einfluss man darauf nehmen konnte. Aus meiner Sicht war es insbesondere im Informationsbereich ein unglaublich machtvolles Instrument. Angesichts der zunehmenden Vernetzung von Informationssystemen untereinander treten inzwischen immer mehr Schattenseiten zutage. Doch damals überwogen die positiven Aspekte.
Wann haben sich die Vereintan Nationen zum ersten Mal mit dem Thema KI befasst?
Die UN beschäftigen sich seit 1988 mit Informations- und Kommunikationstechnologien. Ursprünglich wurde das Thema von Russland auf die Tagesordnung gesetzt, und zwar aus Sicherheitserwägungen, weil der Ursprung von Cyberangriffen niemals nachvollzogen werden konnte. Es ist nicht transparent, wer etwas auslöst, wer etwas anordnet. Ist es nur ein Amateur-Hacker? Oder handelt es sich um einen gezielten Angriff? Und in dieser Frage hat es nicht besonders viele Fortschritte gegeben. Eine Verständigung auf Standards oder Regeln ist nicht möglich. Und obwohl sich eine Gruppe von Regierungsexpert*innen mit diesem Thema befasst, sind wir noch weit davon entfernt, Regelungen oder ein Instrument zu entwickeln, das von den Staaten genutzt werden kann und muss. Ungeachtet all der positiven Aspekte der KI ist dies ein Aspekt, der unbedingt einer Regelung bedarf. Es muss einen „Standard“ gegeben, der von allen Staaten akzeptiert wird.
Welchen Einfluss hat KI auf die Kriegsführung und die Soldat*innen, die beispielsweise die Drohnen steuern?
Dies ist eine der faszinierendsten Entwicklungen. Seit dem Ersten Weltkrieg hat es keine Kriegserklärungen gegeben – obwohl es zahlreiche Konflikte gibt; die offizielle Zahl liegt bei 150.Der Ausdruck „Boots on the Ground“ kam vor 20 bis 30 Jahren auf. Er steht für Soldaten, die in Schützengräben gegeneinander kämpfen. Heutzutage sind an der Kriegsführung und an Kriegshandlungen zwar Menschen beteiligt. Doch es heißt nicht mehr Mann gegen Mann, weil alles elektronisch gesteuert wird. Drohnen sind nur die sichtbarsten technologischen Elemente in diesem Prozess. Sie können problemlos mit Kriegsgeräten ausgestattet werden. Und sie werden immer größer und leistungsfähiger. Es gibt Regeln für den zivilen Einsatz von Drohnen, die zum Beispiel nicht in die Nähe von Gebäuden gelangen dürfen, doch nicht für ihren militärischen Einsatz. Dies führt dazu, dass irgendeine Person an irgendeinem Ort, Tausende von Kilometern entfernt, einen Drohnenangriff auf ein bestimmtes Ziel programmiert, das mit technologischen Mitteln bestimmt wurde. Diese Person weiß nicht wirklich, ob die Drohne auf das richtige Ziel ausgerichtet ist oder welche Kollateralschäden mit dem Angriff verbunden sein könnten. Natürlich versuchen Soldat*innen, dies zu vermeiden. Doch vielleicht hatten sie einen schlechten Tag und sind wütend. Während eine Drohne keine Gefühle verspürt, sieht es bei der Person, die sie steuert, ganz anders aus.
Außerdem sind Atomwaffenlager nicht digital abgesichert, weshalb es heute viel einfacher als noch vor 20 oder 30 Jahren ist, diese Systeme zu hacken. Die digitalen Systeme weisen somit Schwachstellen bei der Bekämpfung und Rückverfolgung von Hackerangriffen auf. Beispielsweise wurde der Iran im vergangenen Jahr für den Angriff auf die saudische Raffinerie verantwortlich gemacht, ohne dass es dafür Beweise gegeben hätte. Wäre es keine Raffinerie, sondern ein Nuklearwaffenlager gewesen, hätte dieser Angriff als Erstschlag in einem Atomkrieg gewertet werden können. Die Gefährdungslage hat sich durch den Einsatz von Technologien also um ein Vielfaches erhöht. Während der Obama-Regierung wurden Statistiken über zivile Kollateralschäden geführt. Heute dagegen werden diese Informationen nicht offengelegt. Diese mangelnde Transparenz verstößt jedoch gegen das humanitäre Völkerrecht, das von nahezu allen Staaten ratifiziert wurde. Transparenz ist in diesem Bereich unerlässlich.
Sie haben davon gesprochen, dass Menschen, die Drohnen steuern, von ihrem Gemütszustand beeinflusst werden können. Allerdings wird der Einsatz von Drohnen auch von den Personen bestimmt, die die Codes schreiben. Voreingenommenheit im Bereich der KI ist ein bekanntes Problem. Was bedeutet dies für den KI-Einsatz in der Kriegsführung? Könnte diese Voreingenommenheit auch bewusst zum Vorteil der Kriegsparteien eingesetzt werden?
Ja, das ist natürlich möglich. Und auch hier haben wir es wieder mit einem Mangel an Transparenz zu tun. Die KI ist für viele Menschen eine Blackbox, weil sie nicht wissen, mit welchen Algorithmen ein System programmiert wurde. Wer einen solchen Algorithmus entwickelt, ist niemals völlig unvoreingenommen, was sich wiederum sehr häufig in den Ergebnissen niederschlägt. Wir müssen diese Algorithmen und ihre Programmierung transparenter machen, weil sie sich auf das Leben der Menschen auswirken, ganz gleich ob im Alltag, bei der Arbeit oder im Krieg.
In KI-Unternehmen kommen inzwischen Ethikbeauftragte zum Einsatz, die in der Regel jedoch nur über eine beratende Funktion verfügen und keine Entscheidungsgewalt darüber haben, was geht und was nicht. Darüber hinaus sitzen in den Ethikgremien nur sehr wenige People of Colour und Frauen, sondern hauptsächlich ältere weiße Männer, sodass bereits auf dieser Ebene von einer klaren Voreingenommenheit auszugehen ist.
Google warb in seiner Anfangszeit mit dem Slogan „Sei nicht böse“. Dieses Motto ist jedoch längst überholt. Das Unternehmen entschied sich dennoch vor etwa zwei oder drei Jahren gegen eine Weiterentwicklung des Gesichtserkennungsprojekts „Maven“ und brach das Vorhaben ab. Woraufhin sich allerdings sofort ein anderes Unternehmen dieser Sache annahm. Ohne eine Regelung für die Entwicklung dieser Algorithmen wird es also keine Änderungen geben.
Welche Rolle spielen die Öffentlichkeit und Regierungen bei der Entwicklungen von Vorschriften für den Einsatz letaler autonomer Waffensysteme?
Ich möchte diese Frage mit einer anderen Entwicklung verknüpfen, nämlich dem Vertrag über das Verbot von Kernwaffen. Der Vertrag geht auf eine humanitäre Initiative zurück, die sich zunächst aus der Besorgnis über die humanitären Folgen eines Atomkriegs nährte. Mit der Zeit wurde die Bewegung immer stärker und konnte zahlreiche Anhänger*innen gewinnen – auch wenn sich die Atommächte entschieden gegen einen solchen Vertrag aussprachen und seine Annahme zu verhindern versuchten. Nichtsdestotrotz fehlen dem Vertrag für ein Inkrafttreten inzwischen nur noch die Unterschriften von drei weiteren Staaten. Damit wäre zwar noch keine vollständige Beseitigung von Kernwaffen verbunden, doch das Verbot des Besitzes von Kernwaffen würde mit der Zeit immer mehr an Gewicht gewinnen.
Eine ähnliche Entwicklung ist bei der Kampagne gegen Killerroboter zu beobachten, die ausgesprochen überzeugend geführt wird. Ein entscheidender Punkt dabei ist, dass sich überwiegend junge und engagierte Menschen daran beteiligen, die einen wirklichen Wandel herbeiführen können. Allerdings ist nicht klar, ob sie sich bei den Regierungen oder Parlamenten Gehör verschaffen können. Bisher ist das Anliegen noch nicht bis auf diese Ebenen durchgedrungen, doch ich denke, wir sind auf einem guten Weg.
Ich fürchte jedoch auch, dass es nicht einfach sein wird, weil die Entwicklung letaler autonomer Waffen schon sehr weit fortgeschritten ist. Allerdings haben sich bereits 30 Staaten öffentlich gegen die Entwicklung dieser Waffen ausgesprochen. Sie haben erste Stellungnahmen vorgelegt, die möglicherweise in einen Vertrag einfließen könnten. Vor allem diejenigen Länder, die solche Waffen nicht besitzen, sprechen sich gegen ihre Entwicklung aus. Weil ihnen bewusst ist, dass sie möglicherweise vom Einsatz solcher Waffen betroffen sein könnten.
Der Begriff der „Killerroboter“ ist in aller Munde. Was halten Sie davon?
Killerroboter ist eine äußert griffige Bezeichnung, denn sie bringt die Sache auf den Punkt. Meines Erachtens regt sie die Vorstellungskraft an und vermittelt eine eindeutige Botschaft. Gleichzeitig würde ich eine andere Bezeichnung vorziehen. Der Begriff „letale autonome Waffensysteme“ geht nicht wirklich leicht über die Lippen, bleibt nicht unbedingt im Gedächtnis haften und klingt ausgesprochen bürokratisch. Mir ist bewusst, dass es an einer angemessenen Bezeichnung fehlt. Ob wir sie nun als Tötungsmaschinen oder Verstümmelungsmaschinen bezeichnen, letzten Endes kommen sie genau dafür zum Einsatz, und da gibt es nichts schönzureden.
Welche Chancen für den Friedenserhalt sind mit KI verbunden?
KI kann ganz entscheidend dazu beitragen, den Informationsfluss und die Transparenz zu verbessern und auf diese Weise mit Menschen in Verbindung zu treten, die anderenfalls vollkommen isoliert wären. Da diese technologischen Fortschritte bereits erzielt wurden, sollten wir sie nun auch zum Wohle der Menschen einsetzen. Heißt es nicht zu Beginn der Charta der Vereinten Nationen: „Wir, die Völker“?
Im Kongo – wo ich selbst schon im Einsatz war – sorgte ein Massaker im Jahre 2014 für große Entrüstung. Die nur 9 Kilometer entfernt stationierten Friedenstruppen hatten nichts davon mitbekommen, weil es keine Straßen gab. Dies war der Auslöser für den Einsatz von Drohnen, um schwer zugängliche oder für den Truppeneinsatz zu gefährliche Regionen zu überwachen und sicherzustellen, dass niemand zu Schaden kommt. Auch wenn diese Form des Einsatzes sehr positiv ist, bleibt die Gefahr eines Missbrauchs bestehen. Daher muss der Einsatz von Drohnen in jedem Einzelfall neu beantragt werden. Gegenwärtig werden sie beispielsweise in Mali und in der Zentralafrikanischen Republik, nicht jedoch im Südsudan genutzt, weil die dortige Regierung ihrem Einsatz nicht zugestimmt hat.
Denken Sie, dass sich der mögliche Schaden durch KI verbunden mit ihrem positiven Einfluss auf den Friedenserhalt und die Sicherheitslage rechtfertigen lässt?
Unsere Entscheidungen hängen nicht davon ab, ob sich dies rechtfertigen lässt oder nicht – es gibt die Technologie, und wir sollten sie zum Wohle der Menschheit einsetzen. Allerdings fehlt es an Regelungen. In Genf hat sich ein Gremium seit 2014 mit diesen Fragen befasst, zunächst im größeren Rahmen, der allen Mitgliedstaaten offenstand, dann in einem kleineren Gremium, das sich aus Regierungsexpert*innen zusammensetzt. Sie verfügen über ein Vetorecht: Wenn sie mit einer Sache nicht einverstanden sind, wird dieser Aspekt nicht weiter berücksichtigt. Darüber hinaus haben sie Leitlinien definiert, konnten sich allerdings noch nicht auf einen Wortlaut einigen, aus dem sich ein Vertrag oder ein Abkommen erarbeiten ließe. Besondere Sorgen bereitet mir die Tatsache, dass sich die Technologie schon seit langem selbst reguliert. Die Nachfrage ist da, und wir müssen aktiver werden.
Als zwischenstaatliche Vereinigung kommen die Vereinten Nationen im Bereich der diplomatischen Beziehungen zwischen Nationen zum Einsatz. Gelegentlich, wenn auch ungern, setzen sie dabei auch auf die Unterstützung von NRO oder Vertretern aus der Industrie. Doch gerade im Bereich der KI ist es absolut notwendig, dass wir mit der Industrie zusammenzuarbeiten, um eine differenzierte Strategie zur Bewältigung des Problems zu entwickeln.
Zahlreichen Ländern und Regierungsvertretern fehlt es in dieser Frage am nötigen Wissen und an den nötigen Erfahrungen, was man ihnen natürlich nicht vorwerfen kann. Sie müssen an das Thema herangeführt werden, und wir benötigen einen weitaus zielgerichteteren Ansatz mit Blick auf die zentrale Frage, wie wir die Entwicklung der künstlichen Intelligenz im Spannungsfeld zwischen Kriegsführung und Friedenserhalt steuern können.
Im Interview zur Diskussionsreihe „Couch Lessons“ sagten Sie, dass das Problem des KI-Einsatzes im Bereich der Kriegsführung nicht aus menschenrechtlicher Perspektive, wohl aber aus der Perspektive von Frieden, Sicherheit und Abrüstung gelöst werden könne. Lassen sich diese Aspekte überhaupt voneinander trennen?
Eigentlich sollten sie miteinander verbunden sein. Die menschenrechtliche Perspektive ist ausgesprochen nützlich, wird jedoch leicht zur Seite geschoben. Einerseits hat das humanitäre Völkerrecht seit der Genfer Konvention eine enorme Entwicklung erfahren. Die Staaten sind verpflichtet, der Zivilbevölkerung im Rahmen des humanitären Rechts und der Menschenrechte einen besonderen Schutz zu gewähren. Andererseits wird dieser Verpflichtung mit Blick auf die Ereignisse in der Welt nicht immer nachgekommen, was gleichzeitig jedoch von vielen Seiten missbilligt wird. Am 13. Oktober wurde beispielsweise der Menschenrechtsrat in Genf gewählt. Ich will nicht behaupten, dass nur Länder im Menschenrechtsrat vertreten sind, die eine vorbildliche Menschenrechtsbilanz vorweisen können. Interessant war jedoch, dass Saudi-Arabien zwar kandidierte, aber nicht in den Menschrechtsrat aufgenommen und gewählt wurde. China dagegen wurde aufgenommen, erhielt jedoch weniger Stimmen als bei der vergangenen Wahl. Dies zeigt einen Bewusstseinswandel, auch mit Blick auf die Frage, ob eine Regierung Menschenrechtsstandards einhält oder nicht.
Aus meiner Sicht müsste der Menschenrechtsaspekt noch weiter in den Vordergrund gerückt und Regierungen an den Pranger gestellt werden. Es funktioniert nicht immer, die Schuldigen beim Namen zu nennen, doch je mehr Länder diese Standards erhöhen, desto besser ist dies für den Rest der Welt. Zahlreiche Länder in Europa erfüllen hohe Standards im Bereich des ethischen – „richtigen“ – Handelns, doch es müssen sich noch mehr Länder zu ihrer Einhaltung verpflichten. Wenn die Wirtschaft ins Wanken gerät, wenn die Armut zunimmt, wenn die Zahl der Migrant*innen und Geflüchteten steigt, sinkt die Bereitschaft zur Einhaltung dieser Standards; noch viel mehr in Zeiten einer Pandemie. Die Zahl autokratischer Regierungen nimmt zu, und immer häufiger ist ein hartes Vorgehen gegen die leidtragende Bevölkerung zu beobachten. Es gibt mehr Spielraum für die Verletzung von Menschenrechten und humanitären Standards. Damit ist derzeit die größte Gefahr verbunden: Wir müssen sicherstellen, dass diese Standards nicht noch weiter an Gewicht verlieren. Wir müssen sicherstellen, dass sich Regierungen wieder für ihre Einhaltung engagieren. Doch wie wir dies erreichen können, da bin ich überfragt.
Was braucht die Welt mit Blick auf den Beitrag von KI zum Friedenserhalt?
Wir brauchen den politischen Willen, in diesem Bereich Fortschritte zu erzielen. Doch angesichts des derzeitigen politischen Klimas erscheint mir ein solches Engagement unwahrscheinlich. Der Einsatz von KI zum Friedenserhalt steht nicht im Mittelpunkt des Brancheninteresses. Die Industrie kann die Entwicklung zwar steuern, doch sie entwickelt auch genau das, was sie aus militärischer Sicht benötigt und anstrebt.
Ich frage mich, ob die umfangreichen Investitionen im Bereich der militärischen Entwicklung – von denen ein großer Teil auch für KI aufgewendet wird – wirklich notwendig sind. Was muss noch geschehen? Reicht die Pandemie noch nicht aus? Gegen wen oder was kämpfen wir zurzeit? Im Zusammenhang mit der NATO beispielsweise hat der Begriff der Feindschaft an Gewicht verloren. Das Bündnis wurde zur Abschreckung gegen die Ostblockstaaten gegründet, die heute zum größten Teil selbst NATO-Mitglieder sind. Ich wünschte, die Pandemie hätte uns gezeigt, dass wir diese Situation nur gemeinsam meistern können, dass wir mit der Pandemie einen gemeinsamen Feind bekämpfen müssen. Stattdessen nehmen die gegenseitigen Schuldzuweisungen für die Pandemie und egoistische Bestrebungen, sich als erster Staat einen Impfstoff zu sichern, weiter zu. Alles in allem benötigen wir ein stärkeres politisches Engagement, und genau daran fehlt es im Moment.
Möglicherweise ändert sich dieser Zustand mit den nächsten Wahlen, ob nun mit der aktuellen Wahl in den USA oder mit bevorstehenden Wahlen in anderen Ländern. Vielleicht wird es gewisse Veränderungen geben, vielleicht auch nicht.
Ich habe 37 Jahre lang für die UN gearbeitet, was eine unglaublich lange Zeit ist. Ich bin also ein echter Dinosaurier. Zum ersten Mal kam ich mit KI, oder vielmehr mit Technologien als mit KI, in Berührung, als ich 1995 eine neue Stelle in der Hauptabteilung Presse und Information antrat. Sie waren gerade mit ihrer ersten Website an den Start gegangen. Das waren aufregende Zeiten. In den folgenden zwei Jahren war ich ausschließlich mit Webentwicklung beschäftigt. Mit der Zeit wurden immer mehr Dinge online gestellt. Im Grunde war dies der Startschuss für mein späteres Interesse an künstlicher Intelligenz. Webentwicklung hatte rein gar nichts mit „Intelligenz“ zu tun, es war reine Technologie, doch mit Technologie ließ sich unglaublich viel erreichen. Und man konnte sehen, was alles möglich war, wenn Menschen Zugang zu Informationen erhielten. Was dies tatsächlich für den Frieden bedeutete und welchen Einfluss man darauf nehmen konnte. Aus meiner Sicht war es insbesondere im Informationsbereich ein unglaublich machtvolles Instrument. Angesichts der zunehmenden Vernetzung von Informationssystemen untereinander treten inzwischen immer mehr Schattenseiten zutage. Doch damals überwogen die positiven Aspekte.
Wann haben sich die Vereintan Nationen zum ersten Mal mit dem Thema KI befasst?
Die UN beschäftigen sich seit 1988 mit Informations- und Kommunikationstechnologien. Ursprünglich wurde das Thema von Russland auf die Tagesordnung gesetzt, und zwar aus Sicherheitserwägungen, weil der Ursprung von Cyberangriffen niemals nachvollzogen werden konnte. Es ist nicht transparent, wer etwas auslöst, wer etwas anordnet. Ist es nur ein Amateur-Hacker? Oder handelt es sich um einen gezielten Angriff? Und in dieser Frage hat es nicht besonders viele Fortschritte gegeben. Eine Verständigung auf Standards oder Regeln ist nicht möglich. Und obwohl sich eine Gruppe von Regierungsexpert*innen mit diesem Thema befasst, sind wir noch weit davon entfernt, Regelungen oder ein Instrument zu entwickeln, das von den Staaten genutzt werden kann und muss. Ungeachtet all der positiven Aspekte der KI ist dies ein Aspekt, der unbedingt einer Regelung bedarf. Es muss einen „Standard“ gegeben, der von allen Staaten akzeptiert wird.
Welchen Einfluss hat KI auf die Kriegsführung und die Soldat*innen, die beispielsweise die Drohnen steuern?
Dies ist eine der faszinierendsten Entwicklungen. Seit dem Ersten Weltkrieg hat es keine Kriegserklärungen gegeben – obwohl es zahlreiche Konflikte gibt; die offizielle Zahl liegt bei 150.Der Ausdruck „Boots on the Ground“ kam vor 20 bis 30 Jahren auf. Er steht für Soldaten, die in Schützengräben gegeneinander kämpfen. Heutzutage sind an der Kriegsführung und an Kriegshandlungen zwar Menschen beteiligt. Doch es heißt nicht mehr Mann gegen Mann, weil alles elektronisch gesteuert wird. Drohnen sind nur die sichtbarsten technologischen Elemente in diesem Prozess. Sie können problemlos mit Kriegsgeräten ausgestattet werden. Und sie werden immer größer und leistungsfähiger. Es gibt Regeln für den zivilen Einsatz von Drohnen, die zum Beispiel nicht in die Nähe von Gebäuden gelangen dürfen, doch nicht für ihren militärischen Einsatz. Dies führt dazu, dass irgendeine Person an irgendeinem Ort, Tausende von Kilometern entfernt, einen Drohnenangriff auf ein bestimmtes Ziel programmiert, das mit technologischen Mitteln bestimmt wurde. Diese Person weiß nicht wirklich, ob die Drohne auf das richtige Ziel ausgerichtet ist oder welche Kollateralschäden mit dem Angriff verbunden sein könnten. Natürlich versuchen Soldat*innen, dies zu vermeiden. Doch vielleicht hatten sie einen schlechten Tag und sind wütend. Während eine Drohne keine Gefühle verspürt, sieht es bei der Person, die sie steuert, ganz anders aus.
Während die Drohne keine Gefühle verspürt, sieht es bei der Person, die sie steuert, ganz anders aus.
Angela Kane
Sie haben davon gesprochen, dass Menschen, die Drohnen steuern, von ihrem Gemütszustand beeinflusst werden können. Allerdings wird der Einsatz von Drohnen auch von den Personen bestimmt, die die Codes schreiben. Voreingenommenheit im Bereich der KI ist ein bekanntes Problem. Was bedeutet dies für den KI-Einsatz in der Kriegsführung? Könnte diese Voreingenommenheit auch bewusst zum Vorteil der Kriegsparteien eingesetzt werden?
Ja, das ist natürlich möglich. Und auch hier haben wir es wieder mit einem Mangel an Transparenz zu tun. Die KI ist für viele Menschen eine Blackbox, weil sie nicht wissen, mit welchen Algorithmen ein System programmiert wurde. Wer einen solchen Algorithmus entwickelt, ist niemals völlig unvoreingenommen, was sich wiederum sehr häufig in den Ergebnissen niederschlägt. Wir müssen diese Algorithmen und ihre Programmierung transparenter machen, weil sie sich auf das Leben der Menschen auswirken, ganz gleich ob im Alltag, bei der Arbeit oder im Krieg.
In KI-Unternehmen kommen inzwischen Ethikbeauftragte zum Einsatz, die in der Regel jedoch nur über eine beratende Funktion verfügen und keine Entscheidungsgewalt darüber haben, was geht und was nicht. Darüber hinaus sitzen in den Ethikgremien nur sehr wenige People of Colour und Frauen, sondern hauptsächlich ältere weiße Männer, sodass bereits auf dieser Ebene von einer klaren Voreingenommenheit auszugehen ist.
Google warb in seiner Anfangszeit mit dem Slogan „Sei nicht böse“. Dieses Motto ist jedoch längst überholt. Das Unternehmen entschied sich dennoch vor etwa zwei oder drei Jahren gegen eine Weiterentwicklung des Gesichtserkennungsprojekts „Maven“ und brach das Vorhaben ab. Woraufhin sich allerdings sofort ein anderes Unternehmen dieser Sache annahm. Ohne eine Regelung für die Entwicklung dieser Algorithmen wird es also keine Änderungen geben.
Welche Rolle spielen die Öffentlichkeit und Regierungen bei der Entwicklungen von Vorschriften für den Einsatz letaler autonomer Waffensysteme?
Ich möchte diese Frage mit einer anderen Entwicklung verknüpfen, nämlich dem Vertrag über das Verbot von Kernwaffen. Der Vertrag geht auf eine humanitäre Initiative zurück, die sich zunächst aus der Besorgnis über die humanitären Folgen eines Atomkriegs nährte. Mit der Zeit wurde die Bewegung immer stärker und konnte zahlreiche Anhänger*innen gewinnen – auch wenn sich die Atommächte entschieden gegen einen solchen Vertrag aussprachen und seine Annahme zu verhindern versuchten. Nichtsdestotrotz fehlen dem Vertrag für ein Inkrafttreten inzwischen nur noch die Unterschriften von drei weiteren Staaten. Damit wäre zwar noch keine vollständige Beseitigung von Kernwaffen verbunden, doch das Verbot des Besitzes von Kernwaffen würde mit der Zeit immer mehr an Gewicht gewinnen.
Eine ähnliche Entwicklung ist bei der Kampagne gegen Killerroboter zu beobachten, die ausgesprochen überzeugend geführt wird. Ein entscheidender Punkt dabei ist, dass sich überwiegend junge und engagierte Menschen daran beteiligen, die einen wirklichen Wandel herbeiführen können. Allerdings ist nicht klar, ob sie sich bei den Regierungen oder Parlamenten Gehör verschaffen können. Bisher ist das Anliegen noch nicht bis auf diese Ebenen durchgedrungen, doch ich denke, wir sind auf einem guten Weg.
Ich fürchte jedoch auch, dass es nicht einfach sein wird, weil die Entwicklung letaler autonomer Waffen schon sehr weit fortgeschritten ist. Allerdings haben sich bereits 30 Staaten öffentlich gegen die Entwicklung dieser Waffen ausgesprochen. Sie haben erste Stellungnahmen vorgelegt, die möglicherweise in einen Vertrag einfließen könnten. Vor allem diejenigen Länder, die solche Waffen nicht besitzen, sprechen sich gegen ihre Entwicklung aus. Weil ihnen bewusst ist, dass sie möglicherweise vom Einsatz solcher Waffen betroffen sein könnten.
Der Begriff der „Killerroboter“ ist in aller Munde. Was halten Sie davon?
Killerroboter ist eine äußert griffige Bezeichnung, denn sie bringt die Sache auf den Punkt. Meines Erachtens regt sie die Vorstellungskraft an und vermittelt eine eindeutige Botschaft. Gleichzeitig würde ich eine andere Bezeichnung vorziehen. Der Begriff „letale autonome Waffensysteme“ geht nicht wirklich leicht über die Lippen, bleibt nicht unbedingt im Gedächtnis haften und klingt ausgesprochen bürokratisch. Mir ist bewusst, dass es an einer angemessenen Bezeichnung fehlt. Ob wir sie nun als Tötungsmaschinen oder Verstümmelungsmaschinen bezeichnen, letzten Endes kommen sie genau dafür zum Einsatz, und da gibt es nichts schönzureden.
Welche Chancen für den Friedenserhalt sind mit KI verbunden?
KI kann ganz entscheidend dazu beitragen, den Informationsfluss und die Transparenz zu verbessern und auf diese Weise mit Menschen in Verbindung zu treten, die anderenfalls vollkommen isoliert wären. Da diese technologischen Fortschritte bereits erzielt wurden, sollten wir sie nun auch zum Wohle der Menschen einsetzen. Heißt es nicht zu Beginn der Charta der Vereinten Nationen: „Wir, die Völker“?
Im Kongo – wo ich selbst schon im Einsatz war – sorgte ein Massaker im Jahre 2014 für große Entrüstung. Die nur 9 Kilometer entfernt stationierten Friedenstruppen hatten nichts davon mitbekommen, weil es keine Straßen gab. Dies war der Auslöser für den Einsatz von Drohnen, um schwer zugängliche oder für den Truppeneinsatz zu gefährliche Regionen zu überwachen und sicherzustellen, dass niemand zu Schaden kommt. Auch wenn diese Form des Einsatzes sehr positiv ist, bleibt die Gefahr eines Missbrauchs bestehen. Daher muss der Einsatz von Drohnen in jedem Einzelfall neu beantragt werden. Gegenwärtig werden sie beispielsweise in Mali und in der Zentralafrikanischen Republik, nicht jedoch im Südsudan genutzt, weil die dortige Regierung ihrem Einsatz nicht zugestimmt hat.
Heißt es nicht zu Beginn der Charta der Vereinten Nationen: „Wir, die Völker“?
Angela Kane
Unsere Entscheidungen hängen nicht davon ab, ob sich dies rechtfertigen lässt oder nicht – es gibt die Technologie, und wir sollten sie zum Wohle der Menschheit einsetzen. Allerdings fehlt es an Regelungen. In Genf hat sich ein Gremium seit 2014 mit diesen Fragen befasst, zunächst im größeren Rahmen, der allen Mitgliedstaaten offenstand, dann in einem kleineren Gremium, das sich aus Regierungsexpert*innen zusammensetzt. Sie verfügen über ein Vetorecht: Wenn sie mit einer Sache nicht einverstanden sind, wird dieser Aspekt nicht weiter berücksichtigt. Darüber hinaus haben sie Leitlinien definiert, konnten sich allerdings noch nicht auf einen Wortlaut einigen, aus dem sich ein Vertrag oder ein Abkommen erarbeiten ließe. Besondere Sorgen bereitet mir die Tatsache, dass sich die Technologie schon seit langem selbst reguliert. Die Nachfrage ist da, und wir müssen aktiver werden.
Als zwischenstaatliche Vereinigung kommen die Vereinten Nationen im Bereich der diplomatischen Beziehungen zwischen Nationen zum Einsatz. Gelegentlich, wenn auch ungern, setzen sie dabei auch auf die Unterstützung von NRO oder Vertretern aus der Industrie. Doch gerade im Bereich der KI ist es absolut notwendig, dass wir mit der Industrie zusammenzuarbeiten, um eine differenzierte Strategie zur Bewältigung des Problems zu entwickeln.
Zahlreichen Ländern und Regierungsvertretern fehlt es in dieser Frage am nötigen Wissen und an den nötigen Erfahrungen, was man ihnen natürlich nicht vorwerfen kann. Sie müssen an das Thema herangeführt werden, und wir benötigen einen weitaus zielgerichteteren Ansatz mit Blick auf die zentrale Frage, wie wir die Entwicklung der künstlichen Intelligenz im Spannungsfeld zwischen Kriegsführung und Friedenserhalt steuern können.
Im Interview zur Diskussionsreihe „Couch Lessons“ sagten Sie, dass das Problem des KI-Einsatzes im Bereich der Kriegsführung nicht aus menschenrechtlicher Perspektive, wohl aber aus der Perspektive von Frieden, Sicherheit und Abrüstung gelöst werden könne. Lassen sich diese Aspekte überhaupt voneinander trennen?
Eigentlich sollten sie miteinander verbunden sein. Die menschenrechtliche Perspektive ist ausgesprochen nützlich, wird jedoch leicht zur Seite geschoben. Einerseits hat das humanitäre Völkerrecht seit der Genfer Konvention eine enorme Entwicklung erfahren. Die Staaten sind verpflichtet, der Zivilbevölkerung im Rahmen des humanitären Rechts und der Menschenrechte einen besonderen Schutz zu gewähren. Andererseits wird dieser Verpflichtung mit Blick auf die Ereignisse in der Welt nicht immer nachgekommen, was gleichzeitig jedoch von vielen Seiten missbilligt wird. Am 13. Oktober wurde beispielsweise der Menschenrechtsrat in Genf gewählt. Ich will nicht behaupten, dass nur Länder im Menschenrechtsrat vertreten sind, die eine vorbildliche Menschenrechtsbilanz vorweisen können. Interessant war jedoch, dass Saudi-Arabien zwar kandidierte, aber nicht in den Menschrechtsrat aufgenommen und gewählt wurde. China dagegen wurde aufgenommen, erhielt jedoch weniger Stimmen als bei der vergangenen Wahl. Dies zeigt einen Bewusstseinswandel, auch mit Blick auf die Frage, ob eine Regierung Menschenrechtsstandards einhält oder nicht.
Aus meiner Sicht müsste der Menschenrechtsaspekt noch weiter in den Vordergrund gerückt und Regierungen an den Pranger gestellt werden. Es funktioniert nicht immer, die Schuldigen beim Namen zu nennen, doch je mehr Länder diese Standards erhöhen, desto besser ist dies für den Rest der Welt. Zahlreiche Länder in Europa erfüllen hohe Standards im Bereich des ethischen – „richtigen“ – Handelns, doch es müssen sich noch mehr Länder zu ihrer Einhaltung verpflichten. Wenn die Wirtschaft ins Wanken gerät, wenn die Armut zunimmt, wenn die Zahl der Migrant*innen und Geflüchteten steigt, sinkt die Bereitschaft zur Einhaltung dieser Standards; noch viel mehr in Zeiten einer Pandemie. Die Zahl autokratischer Regierungen nimmt zu, und immer häufiger ist ein hartes Vorgehen gegen die leidtragende Bevölkerung zu beobachten. Es gibt mehr Spielraum für die Verletzung von Menschenrechten und humanitären Standards. Damit ist derzeit die größte Gefahr verbunden: Wir müssen sicherstellen, dass diese Standards nicht noch weiter an Gewicht verlieren. Wir müssen sicherstellen, dass sich Regierungen wieder für ihre Einhaltung engagieren. Doch wie wir dies erreichen können, da bin ich überfragt.
Was braucht die Welt mit Blick auf den Beitrag von KI zum Friedenserhalt?
Wir brauchen den politischen Willen, in diesem Bereich Fortschritte zu erzielen. Doch angesichts des derzeitigen politischen Klimas erscheint mir ein solches Engagement unwahrscheinlich. Der Einsatz von KI zum Friedenserhalt steht nicht im Mittelpunkt des Brancheninteresses. Die Industrie kann die Entwicklung zwar steuern, doch sie entwickelt auch genau das, was sie aus militärischer Sicht benötigt und anstrebt.
Ich wünschte, die Pandemie hätte uns gezeigt, dass wir diese Situation nur gemeinsam meistern können.
Angela Kane
Möglicherweise ändert sich dieser Zustand mit den nächsten Wahlen, ob nun mit der aktuellen Wahl in den USA oder mit bevorstehenden Wahlen in anderen Ländern. Vielleicht wird es gewisse Veränderungen geben, vielleicht auch nicht.