| © Max-Planck-Institut für Intelligente Systeme, Stuttgart
Wie entsteht KI?
Schon seit einigen Jahrzehnten beschäftigen sich Forscher*innen damit, eine künstliche Intelligenz (KI) zu entwickeln, die ein Problem selbstständig lösen kann.
Anfangs wird an regelbasierter, symbolischer KI gearbeitet. Doch diese Form der KI ist stark limitiert. Sie ist nur für Bereiche geeignet, in denen klare Regeln für alle denkbaren Situationen bestimmt werden können. Sehr große Fortschritte werden ab den 1980er-Jahren mit selbstlernenden Programmen erzielt.
Maschinelles Lernen bedeutet, dass ein Computer aus Beispielen und Erfahrung lernt, wie eine Entscheidung getroffen werden muss – ohne für eine bestimmte Problemlösung programmiert zu werden. Spezielle Algorithmen lernen aus Beispieldaten und entwickeln Modelle, die sie dann auch für neue, zuvor noch nicht gesehene Daten verwenden können. Wenn selbstlernende Maschinen mit sehr vielen Beispielen trainiert werden, entwickeln sie selbstständig einen Entscheidungsprozess, der verallgemeinert wird. Wie selbstlernende Programme zu ihren Entscheidungen kommen, können jedoch selbst die Programmierer*innen meist nicht mehr nachvollziehen. Je nach Komplexität unterscheidet man verschiedene Ebenen des maschinellen Lernens: Überwachtes Lernen, Unüberwachtes Lernen, Verstärkendes Lernen und Deep Learning.
„Wir haben heute Maschinen, die schon relativ gut lernen können, aber wir haben noch keine Maschinen, die denken können. Diese Art von Maschinen zu entwickeln, das ist die große Herausforderung.“
Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen
Regelbasiertes Lernen, auch symbolische KI genannt, baut auf logischen Modellen auf und wird oft als „klassische“ KI bezeichnet. Sie entscheidet nach klaren, vorab im Programmcode festgelegten Regeln.
Ein Beispiel für diese Form der KI ist Deep Blue – das Computerprogramm, das 1996 erstmals den damaligen Schachweltmeister Kasparow besiegt. Es arbeitet mit symbolischer KI und erreicht seine Spielstärke hauptsächlich durch seine riesige Rechenleistung. Die Schachsoftware berechnet im Durchschnitt 126 Millionen Stellungen pro Sekunde. Wirklich intelligent ist Deep Blue nicht – aber sehr, sehr schnell.
Überwachtes Lernen
Beim Überwachten Lernen bewerten Menschen die Trainings- und Testdaten und ordnen sie Gruppen zu. In der Trainingszeit lernt die KI, etwa Bilder von Katzen korrekt „Katze“ zu nennen. Wird einem Algorithmus, der für die Entscheidung zwischen Hund und Katze trainiert wurde, das Bild eines Elefanten gezeigt, ist das für die KI nicht lösbar. Auf ein enges Feld begrenzt, sind diese Algorithmen aber sehr zuverlässig und genau, wenn die Trainingsdaten umfangreich genug und von hoher Qualität sind.
Die Analyse von Bildern mit lernenden Methoden spielt in der bildgebenden Diagnostik bereits eine große Rolle. Mehrere Studien zeigen, dass KI zum Beispiel bei der Beurteilung von Hautkrebs schnellere und oft auch genauere Diagnosen stellen kann als viele Mediziner*innen. Die besten Ergebnisse erzielen Mensch und KI gemeinsam: Die KI beurteilt zuerst, ob es sich überhaupt um Hautkrebs handelt oder um eine ungefährliche Veränderung der Haut. Die Behandlung bestimmen dann die Fachärzt*innen.
Unüberwachtes Lernen
Von Unüberwachtem Lernen spricht man, wenn der Algorithmus ungefilterte Rohdaten erhält. Das Programm sucht selbstständig nach Gemeinsamkeiten und Unterschieden in den Daten. Ziel ist es, interessante und passende Muster zu erkennen. Hierbei kommt es aber manchmal zu Fehlern, wenn die KI Gemeinsamkeiten vor allem im Bildhintergrund erkennt und deshalb zu falschen Ergebnisse kommt. Lernt die KI etwa ausschließlich anhand von Bildern mit Wölfen im Schnee, was ein „Wolf“ ist, wird sie auch ein anderes Tier im Schnee „Wolf“ nennen.
Mustererkennung durch selbstlernende Netzwerke kann Forscher*innen helfen, mehr zu sehen: Fluoreszenzmikroskopie von lebenden Zellen muss oft mit wenig Licht durchgeführt werden, da die untersuchten Organsimen sonst geschädigt werden. Selbstlernende Bildrestaurierungssoftware analysiert diese schlecht ausgeleuchteten, schwer erkennbaren Mikroskopiebilder, vergleicht sie mit Mustern aus bekannten Aufnahmen und kann so „versteckte“ Bildinhalte sichtbar machen.
Verstärkendes Lernen
Beim Verstärkenden Lernen trifft das lernende System Entscheidungen, nach denen es anschließend handelt. Für jede Aktion erhält das System ein positives oder negatives Feedback. So lernt der Algorithmus immer besser einzuschätzen, wie erfolgreich einzelne Handlungen in den verschiedenen Situationen sind. Das Deep Learning ist eine Methode des Verstärkenden Lernens in künstlichen neuronalen Netzen, die das Gehirn imitieren. Ein solches neuronales Netz besteht aus mehreren Schichten. Die einzelnen Schichten bestehen aus vielen künstlichen Neuronen, die miteinander verbunden sind und auf die Neuronen der jeweils vorherigen Schicht reagieren. Je größer das Netz, desto kompliziertere Sachverhalte können verarbeitet werden.
Sprach- und Texterkennung
Deep Learning wird unter anderem zur Sprach- und Texterkennung angewendet. Zum Beispiel arbeiten der in Köln entwickelte Online-Übersetzungsdienst DeepL und das Simultanübersetzungs-programm Lecture Translator des Karlsruher Instituts für Technologie mit künstlichen neuronalen Netzen.
Gesichtserkennung
Auch bei der Gesichtserkennung werden heute künstliche neuronale Netzwerke eingesetzt. Allein in der britischen Hauptstadt London sind über 600.000 Kameras installiert, viele davon werden auch zur Gesichtserkennung genutzt. Die Technologie soll der Polizei helfen, Verbrechen aufzuklären oder sogar zu verhindern. Doch wie groß sind die Gefahren einer solchen Überwachung? Wie weit ist sie mit Demokratie und Bürgerrechten vereinbar?
Autonomes Fahren
Schon seit Jahrzehnten arbeiten Automobilhersteller an der Automatisierung des Fahrens durch verschiedene Assistenzsysteme. Vieles ist hier schon Realität, zum Beispiel automatische Geschwindigkeitsanpassung oder Einparkhilfen. Das große Ziel ist autonomes Fahren, bei dem Computerprogramme mit KI die Fahrzeugkontrolle vollständig übernehmen und die Menschen nur Passagiere sind. Das würde einerseits manchen Verkehrsunfall verhindern, denn sehr viele Unfälle passieren heute wegen menschlichen Fehlern. Doch andererseits gibt es auch grundlegende Fragen: Wer trägt die Verantwortung bei einem Zusammenstoß mit einem Fahrzeug ohne Fahrer*in?
BEISPIELE AUS DER KI-FORSCHUNG
Komm, forsch mit mir
Der kleine vierbeinige Roboter SOLO 8 stammt aus den Robotik-Laboren des Max-Planck-Instituts für Intelligente Systeme in Tübingen und Stuttgart. Der Forschungsroboter ist ein Open-Source-Projekt, die Bauanleitung und die GitHub-Dokumentation sind offen zugänglich. Die meisten Bauteile kommen aus dem 3D-Drucker, den Rest kann man leicht zukaufen. Das heißt, Forscher*innen in aller Welt können SOLO 8 kostengünstig und einfach nachbauen und weiterentwickeln. Die Idee des Projekts ist es, dass jedes Robotik-Forschungslabor die Technologie nutzen kann und so eine weltweit einheitliche Forschungsplattform entsteht. Denn wenn viele Wissenschaftler*innen Experimente auf derselben Plattform durchführen, erhält man vergleichbare Daten. Das ermöglicht schnellere Fortschritte auf dem Gebiet der Robotik.
Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden.
Zusammenhänge erkennen
Eines der aktuellen Forschungsgebiete von Bernhard Schölkopf am Max-Planck-Institut für Intelligente Systeme in Tübingen ist die sogenannte kausale Inferenz. Dabei geht es um Algorithmen, die aus Daten auch kausale Zusammenhänge – also die Beziehung zwischen Ursache und Wirkung – erkennen können. Ein Ziel dabei ist es, KI-Systeme robuster zu machen gegen Störeinflüsse von außen. Ein gutes Beispiel ist auch hier das autonome Fahren: Wenn in einem Wohngebiet mit Geschwindigkeitsbeschränkung ein Verkehrsschild so manipuliert wird, dass es statt Tempo 30 eine „130“ zeigt, weiß ein Mensch sofort, dass das nicht stimmen kann – eben weil die Umgebung viele zusätzliche Hinweise gibt. Für eine KI ist das dagegen keine leichte Aufgabe. Und doch muss sie es können, bevor Autos wirklich autonom fahren, sonst sind schwere Unfälle „vorprogrammiert“.
© Bosch mobility solutions
Perfektes Zusammenspiel
Für große Filmmärkte wie Deutschland werden Filme und Serien synchronisiert. Übersetzer*innen müssen dabei nicht nur den Inhalt des Gesagten richtig wiedergeben. Der neue Text muss auch zu den Lippenbewegungen und zur Mimik der Schauspieler*innen passen. Doch das könnte sich ändern: Eine am Max-Planck-Institut für Informatik entwickelte KI-Technik namens „Deep Video Portraits“ macht es möglich, stattdessen Gesichtsausdruck und Mimik der Darsteller*innen an die beste Übersetzung anzupassen. Dazu werden die Bewegungen im Gesicht und die Kopfposition der Synchronsprecher*innen aufgenommen. Das System überträgt diese auf die Schauspieler*innen im Film. Im Ergebnis passen dann Mimik, Blick, Kopfhaltung und sogar ein Augenzwinkern perfekt zum gesprochenen Wort. Ähnliche Techniken sind es aber auch, die das „Deepfake“ genannte Fälschen von Medieninhalten möglich machen. So kann heute zum Beispiel Politiker*innen jede noch so abwegige Aussage in den Mund gelegt werden. Wir müssen uns also daran gewöhnen, auch scheinbar objektiven Beweisen kritisch gegenüberzustehen.
© Max-Planck-Institut für Informatik, Saarbrücken
Sprachen lernen mit KI
Online-Sprachkurse gibt es „wie Sand am Meer“. Doch das Angebot unterscheidet sich oft sehr in Qualität und Preis. Besonders erfolgversprechend sind Kurse, in denen die Lernenden viel Feedback von Tutor*innen erhalten. Aber diese Kurse sind teuer. Das Weizenbaum-Institut – ein Forschungsverbundprojekt in Berlin und Brandenburg – entwickelt gemeinsam mit dem Goethe-Institut eine KI, die es ermöglicht, die Zeit der Tutor*innen möglichst effizient einzusetzen und auf Bereiche wie das Schreiben eigener Texte und das Erlernen der richtigen Aussprache zu konzentrieren. Das Programm kann unter anderem auch in frei formulierten Texten nicht nur neue Vokabeln, sondern auch die richtige Anwendung einer neu erlernten Grammatik überprüfen. Es kann sogar erkennen, ob Schüler*innen einen Text selber übersetzt haben oder mithilfe von Übersetzungsprogrammen „schummeln“. So kann die KI Routineaufgaben der Tutor*innen übernehmen.
da Vinci mit Fingerspitzengefühl
Heute übliche Mensch-Maschine-Schnittstellen sind meist auf Hören oder Sehen ausgerichtet. Doch Katherine Kuchenbecker und ihr Team am Max-Planck-Institut in Stuttgart sind überzeugt: Für viele Anwendungsbereiche benötigen Roboter bessere haptische Interaktionsfähigkeiten sowie eine höhere soziale Intelligenz. Deshalb bringen die Wissenschaftler*innen Robotern bei, ihre Umwelt tastend zu begreifen. Das ist im Umgang mit Menschen, zum Beispiel Pflegebedürftigen, genauso wichtig wie für den Einsatz ferngesteuerter Roboter. So entwickelt Kuchenbecker den Operationsroboter „da Vinci“ weiter, mit dessen Unterstützung Chirurg*innen auch über große Entfernungen hinweg operieren können. Dabei sendet das KI-System die Bewegungen der weit entfernten Spezialist*innen an den Roboter. Dank der neuen Funktionen können die Ärzt*innen nun nicht mehr nur am Bildschirm sehen, sondern auch direkt fühlen, was der Roboter tut.
„Mithilfe von KI können wir gute Chirurgen zu sehr guten Chirurgen machen.“
Katherine Kuchenbecker, Direktorin am Max-Planck-Institut für Intelligente Systeme in Stuttgart
Maschinelles Lernen bedeutet, dass ein Computer aus Beispielen und Erfahrung lernt, wie eine Entscheidung getroffen werden muss – ohne für eine bestimmte Problemlösung programmiert zu werden. Spezielle Algorithmen lernen aus Beispieldaten und entwickeln Modelle, die sie dann auch für neue, zuvor noch nicht gesehene Daten verwenden können. Wenn selbstlernende Maschinen mit sehr vielen Beispielen trainiert werden, entwickeln sie selbstständig einen Entscheidungsprozess, der verallgemeinert wird. Wie selbstlernende Programme zu ihren Entscheidungen kommen, können jedoch selbst die Programmierer*innen meist nicht mehr nachvollziehen. Je nach Komplexität unterscheidet man verschiedene Ebenen des maschinellen Lernens: Überwachtes Lernen, Unüberwachtes Lernen, Verstärkendes Lernen und Deep Learning.
„Wir haben heute Maschinen, die schon relativ gut lernen können, aber wir haben noch keine Maschinen, die denken können. Diese Art von Maschinen zu entwickeln, das ist die große Herausforderung.“
Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen
Wie lernt KI?
Regelbasiertes LernenRegelbasiertes Lernen, auch symbolische KI genannt, baut auf logischen Modellen auf und wird oft als „klassische“ KI bezeichnet. Sie entscheidet nach klaren, vorab im Programmcode festgelegten Regeln.
Ein Beispiel für diese Form der KI ist Deep Blue – das Computerprogramm, das 1996 erstmals den damaligen Schachweltmeister Kasparow besiegt. Es arbeitet mit symbolischer KI und erreicht seine Spielstärke hauptsächlich durch seine riesige Rechenleistung. Die Schachsoftware berechnet im Durchschnitt 126 Millionen Stellungen pro Sekunde. Wirklich intelligent ist Deep Blue nicht – aber sehr, sehr schnell.
Überwachtes Lernen
Beim Überwachten Lernen bewerten Menschen die Trainings- und Testdaten und ordnen sie Gruppen zu. In der Trainingszeit lernt die KI, etwa Bilder von Katzen korrekt „Katze“ zu nennen. Wird einem Algorithmus, der für die Entscheidung zwischen Hund und Katze trainiert wurde, das Bild eines Elefanten gezeigt, ist das für die KI nicht lösbar. Auf ein enges Feld begrenzt, sind diese Algorithmen aber sehr zuverlässig und genau, wenn die Trainingsdaten umfangreich genug und von hoher Qualität sind.
Die Analyse von Bildern mit lernenden Methoden spielt in der bildgebenden Diagnostik bereits eine große Rolle. Mehrere Studien zeigen, dass KI zum Beispiel bei der Beurteilung von Hautkrebs schnellere und oft auch genauere Diagnosen stellen kann als viele Mediziner*innen. Die besten Ergebnisse erzielen Mensch und KI gemeinsam: Die KI beurteilt zuerst, ob es sich überhaupt um Hautkrebs handelt oder um eine ungefährliche Veränderung der Haut. Die Behandlung bestimmen dann die Fachärzt*innen.
Unüberwachtes Lernen
Von Unüberwachtem Lernen spricht man, wenn der Algorithmus ungefilterte Rohdaten erhält. Das Programm sucht selbstständig nach Gemeinsamkeiten und Unterschieden in den Daten. Ziel ist es, interessante und passende Muster zu erkennen. Hierbei kommt es aber manchmal zu Fehlern, wenn die KI Gemeinsamkeiten vor allem im Bildhintergrund erkennt und deshalb zu falschen Ergebnisse kommt. Lernt die KI etwa ausschließlich anhand von Bildern mit Wölfen im Schnee, was ein „Wolf“ ist, wird sie auch ein anderes Tier im Schnee „Wolf“ nennen.
Mustererkennung durch selbstlernende Netzwerke kann Forscher*innen helfen, mehr zu sehen: Fluoreszenzmikroskopie von lebenden Zellen muss oft mit wenig Licht durchgeführt werden, da die untersuchten Organsimen sonst geschädigt werden. Selbstlernende Bildrestaurierungssoftware analysiert diese schlecht ausgeleuchteten, schwer erkennbaren Mikroskopiebilder, vergleicht sie mit Mustern aus bekannten Aufnahmen und kann so „versteckte“ Bildinhalte sichtbar machen.
Verstärkendes Lernen
Beim Verstärkenden Lernen trifft das lernende System Entscheidungen, nach denen es anschließend handelt. Für jede Aktion erhält das System ein positives oder negatives Feedback. So lernt der Algorithmus immer besser einzuschätzen, wie erfolgreich einzelne Handlungen in den verschiedenen Situationen sind. Das Deep Learning ist eine Methode des Verstärkenden Lernens in künstlichen neuronalen Netzen, die das Gehirn imitieren. Ein solches neuronales Netz besteht aus mehreren Schichten. Die einzelnen Schichten bestehen aus vielen künstlichen Neuronen, die miteinander verbunden sind und auf die Neuronen der jeweils vorherigen Schicht reagieren. Je größer das Netz, desto kompliziertere Sachverhalte können verarbeitet werden.
Sprach- und Texterkennung
Deep Learning wird unter anderem zur Sprach- und Texterkennung angewendet. Zum Beispiel arbeiten der in Köln entwickelte Online-Übersetzungsdienst DeepL und das Simultanübersetzungs-programm Lecture Translator des Karlsruher Instituts für Technologie mit künstlichen neuronalen Netzen.
Gesichtserkennung
Auch bei der Gesichtserkennung werden heute künstliche neuronale Netzwerke eingesetzt. Allein in der britischen Hauptstadt London sind über 600.000 Kameras installiert, viele davon werden auch zur Gesichtserkennung genutzt. Die Technologie soll der Polizei helfen, Verbrechen aufzuklären oder sogar zu verhindern. Doch wie groß sind die Gefahren einer solchen Überwachung? Wie weit ist sie mit Demokratie und Bürgerrechten vereinbar?
Autonomes Fahren
Schon seit Jahrzehnten arbeiten Automobilhersteller an der Automatisierung des Fahrens durch verschiedene Assistenzsysteme. Vieles ist hier schon Realität, zum Beispiel automatische Geschwindigkeitsanpassung oder Einparkhilfen. Das große Ziel ist autonomes Fahren, bei dem Computerprogramme mit KI die Fahrzeugkontrolle vollständig übernehmen und die Menschen nur Passagiere sind. Das würde einerseits manchen Verkehrsunfall verhindern, denn sehr viele Unfälle passieren heute wegen menschlichen Fehlern. Doch andererseits gibt es auch grundlegende Fragen: Wer trägt die Verantwortung bei einem Zusammenstoß mit einem Fahrzeug ohne Fahrer*in?
BEISPIELE AUS DER KI-FORSCHUNG
Komm, forsch mit mir
Der kleine vierbeinige Roboter SOLO 8 stammt aus den Robotik-Laboren des Max-Planck-Instituts für Intelligente Systeme in Tübingen und Stuttgart. Der Forschungsroboter ist ein Open-Source-Projekt, die Bauanleitung und die GitHub-Dokumentation sind offen zugänglich. Die meisten Bauteile kommen aus dem 3D-Drucker, den Rest kann man leicht zukaufen. Das heißt, Forscher*innen in aller Welt können SOLO 8 kostengünstig und einfach nachbauen und weiterentwickeln. Die Idee des Projekts ist es, dass jedes Robotik-Forschungslabor die Technologie nutzen kann und so eine weltweit einheitliche Forschungsplattform entsteht. Denn wenn viele Wissenschaftler*innen Experimente auf derselben Plattform durchführen, erhält man vergleichbare Daten. Das ermöglicht schnellere Fortschritte auf dem Gebiet der Robotik.
Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden Eine Langzeitbelichtung lässt die hochdynamischen Bewegungsabläufe des Roboters SOLO 8 zum Tanz werden.
Zusammenhänge erkennen
Eines der aktuellen Forschungsgebiete von Bernhard Schölkopf am Max-Planck-Institut für Intelligente Systeme in Tübingen ist die sogenannte kausale Inferenz. Dabei geht es um Algorithmen, die aus Daten auch kausale Zusammenhänge – also die Beziehung zwischen Ursache und Wirkung – erkennen können. Ein Ziel dabei ist es, KI-Systeme robuster zu machen gegen Störeinflüsse von außen. Ein gutes Beispiel ist auch hier das autonome Fahren: Wenn in einem Wohngebiet mit Geschwindigkeitsbeschränkung ein Verkehrsschild so manipuliert wird, dass es statt Tempo 30 eine „130“ zeigt, weiß ein Mensch sofort, dass das nicht stimmen kann – eben weil die Umgebung viele zusätzliche Hinweise gibt. Für eine KI ist das dagegen keine leichte Aufgabe. Und doch muss sie es können, bevor Autos wirklich autonom fahren, sonst sind schwere Unfälle „vorprogrammiert“.
© Bosch mobility solutions
Perfektes Zusammenspiel
Für große Filmmärkte wie Deutschland werden Filme und Serien synchronisiert. Übersetzer*innen müssen dabei nicht nur den Inhalt des Gesagten richtig wiedergeben. Der neue Text muss auch zu den Lippenbewegungen und zur Mimik der Schauspieler*innen passen. Doch das könnte sich ändern: Eine am Max-Planck-Institut für Informatik entwickelte KI-Technik namens „Deep Video Portraits“ macht es möglich, stattdessen Gesichtsausdruck und Mimik der Darsteller*innen an die beste Übersetzung anzupassen. Dazu werden die Bewegungen im Gesicht und die Kopfposition der Synchronsprecher*innen aufgenommen. Das System überträgt diese auf die Schauspieler*innen im Film. Im Ergebnis passen dann Mimik, Blick, Kopfhaltung und sogar ein Augenzwinkern perfekt zum gesprochenen Wort. Ähnliche Techniken sind es aber auch, die das „Deepfake“ genannte Fälschen von Medieninhalten möglich machen. So kann heute zum Beispiel Politiker*innen jede noch so abwegige Aussage in den Mund gelegt werden. Wir müssen uns also daran gewöhnen, auch scheinbar objektiven Beweisen kritisch gegenüberzustehen.
© Max-Planck-Institut für Informatik, Saarbrücken
Sprachen lernen mit KI
Online-Sprachkurse gibt es „wie Sand am Meer“. Doch das Angebot unterscheidet sich oft sehr in Qualität und Preis. Besonders erfolgversprechend sind Kurse, in denen die Lernenden viel Feedback von Tutor*innen erhalten. Aber diese Kurse sind teuer. Das Weizenbaum-Institut – ein Forschungsverbundprojekt in Berlin und Brandenburg – entwickelt gemeinsam mit dem Goethe-Institut eine KI, die es ermöglicht, die Zeit der Tutor*innen möglichst effizient einzusetzen und auf Bereiche wie das Schreiben eigener Texte und das Erlernen der richtigen Aussprache zu konzentrieren. Das Programm kann unter anderem auch in frei formulierten Texten nicht nur neue Vokabeln, sondern auch die richtige Anwendung einer neu erlernten Grammatik überprüfen. Es kann sogar erkennen, ob Schüler*innen einen Text selber übersetzt haben oder mithilfe von Übersetzungsprogrammen „schummeln“. So kann die KI Routineaufgaben der Tutor*innen übernehmen.
da Vinci mit Fingerspitzengefühl
Heute übliche Mensch-Maschine-Schnittstellen sind meist auf Hören oder Sehen ausgerichtet. Doch Katherine Kuchenbecker und ihr Team am Max-Planck-Institut in Stuttgart sind überzeugt: Für viele Anwendungsbereiche benötigen Roboter bessere haptische Interaktionsfähigkeiten sowie eine höhere soziale Intelligenz. Deshalb bringen die Wissenschaftler*innen Robotern bei, ihre Umwelt tastend zu begreifen. Das ist im Umgang mit Menschen, zum Beispiel Pflegebedürftigen, genauso wichtig wie für den Einsatz ferngesteuerter Roboter. So entwickelt Kuchenbecker den Operationsroboter „da Vinci“ weiter, mit dessen Unterstützung Chirurg*innen auch über große Entfernungen hinweg operieren können. Dabei sendet das KI-System die Bewegungen der weit entfernten Spezialist*innen an den Roboter. Dank der neuen Funktionen können die Ärzt*innen nun nicht mehr nur am Bildschirm sehen, sondern auch direkt fühlen, was der Roboter tut.
„Mithilfe von KI können wir gute Chirurgen zu sehr guten Chirurgen machen.“
Katherine Kuchenbecker, Direktorin am Max-Planck-Institut für Intelligente Systeme in Stuttgart