Künstliche Intelligenz
Das Antwortgebende
Über unüberbrückbare Unterschiede zwischen Menschen und Maschinen – ein Essay.
1997 ließ der britische Kybernetiker Kevin Warwick sein Buch „Der Marsch der Maschinen“ mit einem düsteren Zukunftsszenario beginnen. Warwick vertritt die Ansicht, dass die Erdbevölkerung bereits Mitte des 21. Jahrhunderts von vernetzter Künstlicher Intelligenz (KI) und überlegenen Robotern beherrscht werden wird, denen der Mensch bestenfalls noch als jemand dienen kann, der ein wenig Chaos ins System bringt.
Wird es Maschinen einstmals peinlich sein, vom Menschen geschaffen worden zu sein, so wie der Mensch sich schämte, als er herausfand, dass er vom Affen abstammt? Der amerikanische KI-Pionier Edward Feigenbaum malte sich in den 1980er-Jahren aus, wie in den Bibliotheken von morgen die Bücher untereinander kommunizieren werden und dabei ihr Wissen selbständig vermehren. Kommentar seines Kollegen Marvin Minsky: „Vielleicht behalten sie uns als Haustiere.“ Minsky war 1956 Mitveranstalter einer Konferenz am Dartmouth College in New Hampshire, auf der erstmals der Begriff „artificial intelligence“ auftauchte – Künstliche Intelligenz.
Die Verheißungen einer computerisierten Ausweitung der Intelligenz waren spektakulär. Schon bald sollten Probleme aller Art von Elektronengehirnen gelöst werden. Die meisten dieser Erwartungen wurden enttäuscht oder erst nach Jahrzehnten, und auf eng begrenzten Gebieten wie etwa dem Schachspiel oder der Mustererkennung, eingelöst. Technische Fortschritte der letzten Jahre haben der Entwicklung allerdings eine neue Dynamik verliehen. Neue Speichertechnologien, immer leistungsfähigere Supercomputer, neue Datenbankkonzepte für die Verarbeitung riesiger Datenmengen, Millioneninvestitionen großer Internetkonzerne und nun auch noch ein Wettlauf der Staaten um die Weltherrschaft durch „algorithmische Vorteile“ lassen auch die alten Ängste vor Künstlicher Intelligenz wieder aufleben.
Im Mai 2014 wandten sich vier prominente Wissenschaftler – der Physik-Nobelpreisträger Frank Wilczek, der Kosmologe Max Tegmark, der Computerwissenschaftler Stuart Russell und der wohl berühmteste Physiker der Welt, Stephen Hawking – mit einem Appell an die Leser der britischen Zeitung The Independent. Sie warnten davor, intelligente Maschinen als bloße Science Fiction abzutun: „Eine künstliche Intelligenz erfolgreich in Gang zu setzen, wäre das größte Ereignis der Menschheitsgeschichte. Bedauerlicherweise könnte es auch das letzte sein, so lange wir nicht lernen, wie man die damit verbundenen Risiken vermeidet.“
Die Vernichtung der Menschheit?
Es fällt auf, dass die KI-Forschung von Männern dominiert wird, bei deren pathetischem Schöpfungswunsch vielleicht auch eine umgekehrte Form von Penisneid eine Rolle spielen könnte, nennen wir ihn Geburtsneid. Es ist der unbezähmbare Wunsch, einem lebenden Organismus, den die Evolution seit etwa 400 Millionen Jahren – seit der Entstehung des Lebens – in immer raffinierteren Erscheinungsformen durchs Gelände treibt, nicht einfach nur eine gleichrangige computerisierte Eigenentwicklung gegenüberzustellen, sondern eine, die den Menschen übertrifft und degradiert zu einem Übergangswesen zwischen dem Affen und der neuesten technischen Krone der Schöpfung.
Diese Vision heißt „harte KI“ und basiert auf der Annahme, dass jede Funktion des menschlichen Daseins computerisierbar ist, vor allem darauf, dass das menschliche Gehirn wie ein Computer funktioniert. Alle Mahnungen vor amoklaufenden Maschinen treffen sich an einem Brennpunkt, der Singularität. Es ist der Moment, ab dem eine Maschine sich autonom verbessern kann und ihre Leistungsfähigkeit explosionsartig zunimmt. Die Mahner machen Angst davor, dass diese Hyper-Maschine, einmal angestoßen, einen eigenen Wesenskern entwickelt. Ein intelligentes Selbst.
Die Befürchtung, dass eigensinnige Objekte die Menschheit vernichten könnten, hat tiefe Wurzeln. Sie hat zu tun mit der Angst, aber auch mit der Hoffnung, dass unbelebte Dinge lebendig werden könnten, etwa mit Hilfe von Magie. Die alten Ägypter gaben ihren Verstorbenen kleine Figuren mit ins Grab – Uschebtis, die Antwortgebenden –, die für sie anfallende Arbeiten im Jenseits erledigen sollten. Zum ersten Mal in der Geschichte erscheint hier die Idee des Computers: des antwortgebenden, jeden Befehl ausführenden Repräsentanten. Die Instruktionen, mit denen die kleinen Figuren beschriftet sind, ähneln frappierend der algorithmischen Abfolge eines modernen Computerprogramms:
Magische Puppe, hör mich an!
Wenn ich gerufen werde
die Arbeit auszuführen...
wisse, du bist an meiner Statt
von den Hütern des Jenseits dazu bestimmt
die Felder zu besäen
die Kanäle mit Wasser zu füllen
den Sand herüber zu schaffen...
Am Ende heißt es:
Hier bin ich und höre auf Deine Befehle.
Wir würden das heute „dialogorientierte Benutzerführung“ nennen – und den Glauben daran, dass ein Zauberspruch ein Tonfigürchen zum Leben erwecken kann, einen Aberglauben. Dieser Aberglaube hat seinen Weg bis in die Gegenwart gefunden. Die Vertreter der harten KI sind davon überzeugt, dass sich in einem Computer irgendwann, irgendwie ein lebendiges Bewusstsein bilden wird. Sie folgen der Hypothese, dass Denken auf Informationsverarbeitung reduziert werden kann, die unabhängig von einem bestimmten Trägermaterial ist. Dass also das Gehirn nicht unbedingt notwendig ist und der menschliche Geist ebensogut in einen Computer geladen werden kann. Für Marvin Minsky, der im Januar 2016 starb, war KI der Versuch, dem Tod ein Schnippchen zu schlagen.
Die Illusion des maschinellen Ichs
1965 schrieb der Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology ein Programm namens ELIZA, mit dem man sich – schreibend – unterhalten konnte. Er ließ ELIZA die Rolle eines Psychotherapeuten spielen, der ein Gespräch mit einem Klienten führt. „Meine Mutter ist sonderbar“, tippt der Mensch ein. „Wie lange ist ihre Mutter schon sonderbar?“, fragt der Computer zurück. Sind nun die Maschinen erwacht? Was spricht da zu uns, das sich anfühlt, als könnten sich im Inneren von Computern eigene, den menschlichen zum Verwechseln ähnliche Wesenskerne entwickeln?
Zuvor hatten sich Geräte nur in Form unpersönlicher Signale geäußert – „Öldruck sinkt“, „Betriebsstörung“. Weizenbaum war bestürzt, wie schnell Personen, die sich mit ELIZA unterhielten, eine emotionale Beziehung zu der algorithmisch kostümierten Maschine herstellten. Als seine Sekretärin das Programm ausprobierte, bat sie ihn schon nach kurzer Zeit, den Raum zu verlassen, weil sie intime Details von sich preisgab. Eine Maschine aber, die von einem Programmierer angewiesen wird, ICH zu sagen, hat deshalb noch lange kein tatsächliches Ich.
Das Gehirn als Computer hat nichts mit tatsächlichem Wissen über das Gehirn, die menschliche Intelligenz oder ein persönliches Selbst zu tun. Es ist eine moderne Metapher. Erst nahm man an, der Mensch werde aus Lehm geformt und ein Gott hauche ihm seinen Geist ein. Später wurde ein hydraulisches Modell populär – die Vorstellung, dass der Fluss der „Säfte“ im Körper für das körperliche und geistige Funktionieren verantwortlich ist. Als im 16. Jahrhundert Automaten aus Federn und Getrieben gebaut wurden, kamen führende Denker wie der französische Philosoph René Descartes auf die Idee, dass Menschen komplexe Maschinen seien. Mitte des 19. Jahrhunderts verglich der deutsche Physiker Hermann von Helmholtz das Gehirn mit einem Telegrafen. Der Mathematiker John von Neumann konstatierte, dass die Funktion des menschlichen Nervensystems digital sei und zog immer neue Parallelen zwischen den Komponenten der damaligen Rechenmaschinen und den Komponenten des menschlichen Gehirns. Aber noch niemand hat eine Speicherbank im Gehirn gefunden, die auch nur annähernd so funktioniert wie der Datenspeicher eines Computers.
Von den Forschern im Bereich der Künstlichen Intelligenz sind die wenigsten beunruhigt über eine machthungrige Superintelligenz. „Die ganze Community ist weit davon entfernt, irgendetwas zu entwickeln, das die Öffentlichkeit beunruhigen könnte“, beschwichtigt Dileep George, Mitgründer des KI-Unternehmens Vicarious. „Als Wissenschaftler sind wir verpflichtet, die Öffentlichkeit über den Unterschied zwischen Hollywood und der Realität aufzuklären.“
Bei Vicarious, das 50 Millionen Dollar unter anderem von Mark Zuckerberg und Jeff Bezos eingesammelt hat, arbeitet man an einem Algorithmus, der wie das Wahrnehmungssystem des menschlichen Gehirns funktionieren soll – ein überaus ehrgeiziges Ziel. Die größten Künstlichen Neuronalen Netze, die heute in Computern in Betrieb sind, haben rund eine Milliarde Querverbindungen, das Tausendfache dessen, was noch vor ein paar Jahren möglich war. Im Vergleich zum Gehirn ist das aber immer noch verschwindend wenig: Es entspricht etwa einem Kubikmillimeter Hirngewebe. Auf einer Tomografie wäre das weniger als ein Voxel, die dreidimensionale Entsprechung eines Pixels.
Das zentrale Problem der KI ist die Komplexität der Welt. Um damit umzugehen, ist ein neugeborener Mensch bereits mit evolutionär hergeleiteten Potenzialen seiner selbst ausgestattet – mit seinen Sinnen, einer Handvoll Reflexen, die für sein Überleben wichtig sind, und, vielleicht am wichtigsten, mit leistungsfähigen Lernmechanismen, die es ihm ermöglichen, sich schnell zu verändern, so dass er mit seiner Welt immer besser interagieren kann, auch wenn diese Welt ganz anders ist als die seiner fernen Vorfahren.
Der Computer dagegen kann nicht einmal bis Zwei zählen, kennt nur Null und Eins und versucht es mit einer Mischung aus Dummheit und Geschwindigkeit, vielleicht noch mit Faustregeln, sogenannten Heuristiken, und einer Menge anspruchsvoller Mathematik (Stichwort Neuronale Netze). Um auch nur die Grundlagen zu verstehen, wie das Gehirn den menschlichen Intellekt betreibt, müssen wir aber womöglich nicht nur den aktuellen Zustand aller 86 Milliarden Neuronen und ihre 100 Billionen Verbindungen kennen, nicht nur die unterschiedlichen Intensitäten, mit denen sie verbunden sind, und nicht nur die Zustände von mehr als 1.000 Proteinen, die an jedem Verbindungspunkt existieren, sondern auch, wie die jeweils augenblickliche Aktivität des Gehirns zur Integrität des Gesamtsystems beiträgt.
Hinzu kommt die Einzigartigkeit jedes Gehirns, die auf die Einzigartigkeit der Lebensgeschichte jedes Menschen zurückzuführen ist.