myAI: der Intelligenzverstärker für informierte Entscheidungen
In seinem neuesten Buch nutzt KI-Experte Thomas Ramge „myAI“, ein fiktives Produkt der Zukunft. Er beschreibt es als einen digitalen persönlichen Assistenten, der tatsächlich die Interessen des Nutzers und nicht die des Anbieters vertritt.
Digitale persönliche Assistenten wie Alexa, Google Home oder Siri sind auf dem Vormarsch und werden vor allem dazu verwendet, Informationen bereitzustellen, Empfehlungen abzugeben und Produkte online zu kaufen. Diese vernetzten digitalen Geräte sind zunehmend Teil unseres Lebens und verändern auch grundlegende Kulturtechniken wie Lesen, Schreiben, Hören und Sprechen. Außerdem werden sie von den zwei größten Technologieunternehmen unserer Zeit betrieben, Amazon und Apple.
In seinem neuen Buch Postdigital - Wie wir Künstliche Intelligenz schlauer machen, ohne uns von ihr bevormunden zu lassen, argumentiert KI-Experte Thomas Ramge, dass Menschen bei all dem Hype um KI vergessen, sich zu fragen, wem Technologie wirklich nützt und wo sie mitunter mehr Schaden anrichtet als Nutzen stiftet.
In den folgenden Auszügen aus dem Buch nimmt Ramge seinen digitalen persönlichen Assistenten „myAI“ und den Leser auf eine Zugreise von Berlin nach München im Jahr 2030 mit.
---
myAI hat mich eine Stunde früher geweckt, damit ich den frühen Zug nach München erwische. Ich habe mich lange dagegen gewehrt, die Smart-Speaker von myAI in unsere Wohnung zu lassen. Ich denke immer noch, dass smarte Lautsprecher so ehrlich sein sollten, sich Smart-Microphones zu nennen. Aber jetzt vor dem Kleiderschrank bin ich froh, dass ich myAI kurz fragen kann, wann genau das Elektro-Sammeltaxi zum Bahnhof Südkreuz kommt. Meine persönliche KI hat es automatisch bestellt, nachdem sie gestern noch ein Sparticket nach München gefunden und gebucht hatte.
In meinem Freundeskreis gehörte ich zu den Ersten, die 2026 ein myAI-Abo abgeschlossen haben. Meinen Freunden erschien es damals absurd, einem israelischen Start-up 100 Dollar im Monat zu bezahlen, das mit dem Slogan wirbt: »Du sagst an!« Es stimmte schon: myAI konnte damals nicht viel mehr als die kostenlosen oder zumindest sehr viel günstigeren KI-Assistenten von Google, Apple, Amazon, Microsoft, Samsung und Tencent. Terminkoordination und Reiseplanung funktionierten bei myAI nach meinem Eindruck etwas besser, Shopping- und Schreibassistenz hingegen schlechter. Bei den Gesundheitsanwendungen konnte ich es nicht recht einschätzen. Aber ich habe mir damals sehr bewusst gesagt: Ich habe keine Lust mehr auf dieses undurchschaubare Bündel an Diensten, das die großen Online-Plattformen schnüren und bei dem man nie weiß, welche Daten die Plattformen für was nutzen.
myAI hat versprochen, ausschließlich meine Interessen zu vertreten, nach meinen Präferenzen. In den AGB war klar geregelt, dass myAI alle meine Daten in Europa speichert und verarbeitet, wo immer sinnvoll und möglich kryptografisch abgesichert. myAI darf niemals Daten an Dritte weitergeben, sofern ich dem nicht explizit zustimme. Mir war schon damals absolut klar: Ein KI-Assistent, der immer auf deiner Seite steht, der dir nichts verkaufen möchte, der dich nicht mit Werbung zuballert, der keine provisionsbasierten Nebengeschäfte mit Partnern macht und auch kein Interesse daran hat, dich möglichst lange in seinen Bann zu ziehen, sondern so programmiert ist, möglichst wenig deiner Zeit zu fressen, der muss teuer sein. Oder schlecht.
Die Trainingsphase des Systems hat länger gedauert als versprochen. Ich hatte anfangs oft das Gefühl, es versteht nicht, was ich will. Heute nimmt mir myAI viele Routineentscheidungen ab, die mich früher viel Zeit und Mühe gekostet haben. Am besten funktioniert nach wie vor die Kaufassistenz. Das System hat über die Jahre meine Präferenzen sehr gut kennengelernt. Bei Grundnahrungsmitteln, Haushalts- und Bürokram habe ich schon vor Jahren die automatische Bestellfunktion freigeschaltet. myAI bestellt meist bei dem günstigsten Händler, es sei denn, er hat zu schlechte Bewertungen.
Ich verschwende auch nicht mehr zwei oder drei Stunden für den Online-Kauf eines Fahrradschlosses. Bei mittleren und größeren Anschaffungen schaue ich mir nur noch die drei Vorschläge an, die myAI macht. In der Regel klicke ich dann einfach auf die »Your Best Deal«-Empfehlung, und ich habe den Eindruck, auf diese Weise deutlich weniger Fehlkäufe zu machen als früher.
Ich hätte übrigens nicht gedacht, dass wir die „Your Best Meal“-Funktion mit der verbundenen Einkaufsplanung irgendwann tatsächlich nutzen. Meine Frau war strikt dagegen. Auch ich finde die Idee, dass uns eine KI sagt, was wir essen sollten, leicht demütigend. Aber irgendwie hat sich das System doch in unsere Ernährung geschlichen. Wir nehmen die Vorschläge sicher drei- bis viermal pro Woche an, essen viel ausgewogener und vor allem deutlich weniger Fleisch, was wir uns immer vorgenommen, aber nie umgesetzt hatten. Am Beispiel des Essensplans lässt sich eine der größten Stärken von myAI gut verdeutlichen, nämlich grundsätzliche Lebensentscheidungen wirksam in die vielen kleinen Alltagsentscheidungen zu integrieren. Verhaltenswissenschaftler würden es wohl so formulieren: Der Assistent hilft mir dabei, meinen „attitude-action gap“ zu überwinden.
Ich sehe die kleinen Verhaltensschubser von myAI für mich vor allem als positiv motivierende Impulse in einem Lernprozess hin zu Verhaltensmustern, die in Einklang mit meinen grundsätzlichen Vorstellungen von einem guten Leben stehen, die ich aber aus Bequemlichkeit oder Inkonsequenz viel zu oft breche und mir dafür dann gute Ausreden vor mir selbst ausdenke. Jetzt fühlt es sich hingegen oft so an, als habe jemand einen Kippschalter umgelegt.
Besonders gut funktioniert hat diese Steuerungshilfe zur besseren Selbststeuerung übrigens beim Thema Müllvermeidung und Wertstoffkreisläufe. Natürlich habe ich im Supermarkt schon immer darauf geachtet, Tomaten zu kaufen, die nicht in Plastik einpackt sind. Doch mit myAI habe ich endlich beim Kauf fast jedes Produkts in nahezu jeder Produktkategorie ein deutlich besseres Einschätzungsvermögen, wie viel Müll ich gerade zu mir nach Hause schleppe beziehungsweise liefern lasse. Recyclingpotenzial, CO2-Emissionen im Lebenszyklus, Gesamtumweltbilanz eines Produktes sind extrem kompliziert. Genauer gesagt: Es ist meist so kompliziert, dass ich vor der Kompliziertheit im- mer wieder kapituliert habe. myAI muss dies nicht. Es sind zwar sehr viele Kriterien, die es miteinander abwägen muss, aber die Kriterien sind klar und die Eigenschaften messbar. Im Unterschied zu mir fällt es nicht auf Greenwashing-Tricks rein, denn es unterliegt ja nicht meinen menschlichen Bias und kognitiven Beschränkungen bei der Abwägung von Präferenzen und Verarbeitung von Informationen.
Bei kleinen Kaufentscheidungen gibt mir das System nur einen kurzen Hinweis, wenn die Entscheidung nicht im Einklang mit meiner Vorgabe „hoher Umweltstandard“ steht. Bei größeren Entscheidungen allerdings geht myAI ausreichend tief in die Details, ohne mich zu überfordern. Den Programmierern des Systems ist es in beeindruckender Weise gelungen, Umweltauswirkungen so zu visualisieren, dass ich mir ein deutlich schlüssigeres Bild für meine Entscheidungsgrundlage machen kann. Ich empfinde hier myAI als meinen persönlichen Intelligenzverstärker für informiertere Entscheidungen.
Es stört mich nicht, dass myAI sowohl Privates als auch Berufliches steuert. Früher musste ich ja auch private und berufliche Termine miteinander koordinieren. Ich habe das Gefühl, dass mein KI-Assistent ganz gut gelernt hat, private und berufliche Präferenzen zu unterscheiden. E-Mail-Ping- pong zur Terminvereinbarung habe ich zum Glück hinter mir gelassen. Das habe ich voll an myAI delegiert, auch auf die Gefahr hin, dass mal ein Termin nicht zustande kommt. Man hat ja eh zu viele.
Endlich sitze ich im Zug und setze den Kopfhörer auf. myAI checkt mich auf meinem Platz ein und fragt: „News oder Hintergrund?“ Ich sage: „Zehn Minuten News, 20 Minuten Hintergrundpolitik.“ Das System stellt mir meinen Podcast aus der Liste von Quellen zusammen, die ich regelmäßig auf Grundlage seiner Vorschläge freischalte. Wenn mich Themen direkt politisch betreffen, sagt myAI das vor der Meldung kurz an.
Gelegentlich gebe ich dem System Rückmeldung, ob ich mit seiner Einschätzung zur Relevanz für mich und mein Leben übereinstimme. In einem Dialogfenster poppen dann immer drei Gründe auf, warum das System ein Thema als für mich persönlich relevant einschätzt. Die drei Argumente kann ich dann einzeln bestätigen oder verwerfen. Das System sammelt so kontinuierlich Informationen, die auch in meine Wahl-o-Mat-Empfehlungen eingehen.
myAI informiert auffällig häufig über KI-Themen. Manchmal frage ich mich, ob das nur mit meinen Präferenzen zu tun hat oder ob das System selbst an einer selbstwertdienlichen Verzerrung leidet, unter einem künstlich intelligenten Lake- Wobegon-Effekt. Kürzlich spielte es mir einen sehr spannenden Podcast zu der Frage zu: „Gibt es ein Anrecht auf eine Grundversorung mit KI?“ myAI wurde darin als ein Beispiel genannt, dass die aktuellen Entwicklungen bei KI-Assistenz die digitale Ungleichheit verschärfen. Wer 100 Euro im Monat für einen unabhängigen Assistenten übrig hat, kann sich Zugang zu künstlicher Intelligenzverstärkung kaufen. Wer das Geld nicht hat, ist auf günstige oder kostenlose Systeme an- gewiesen und muss unter Umständen in Kauf nehmen, dass die eigenen Daten für Entscheidungsvorschläge genutzt werden, die den jeweiligen Nutzerinteressen zuwiderlaufen.
Meine tägliche Podcast-Info-Einheit endet immer mit drei Minuten "Serendipity-Input". Ich habe myAI strikt angewiesen, mir jeden Tag einen Beitrag zu einem Thema zuzuspielen, von dem die Daten dem System sagen: Dafür interessiere ich mich nicht. Die Anti-Empfehlungen sind wirklich gut. Meist interessiert mich das Thema wirklich nicht, aber ich kann den Serenpidity-Input nicht unterbrechen. Natürlich könnte ich den Kopfhörer abziehen, aber das mache ich fast nie. Denn dann spüre ich physisch zu deutlich, dass ich gegen meine selbst gesetzten Regeln verstoße. Nach dem Info-Podcast stelle ich meine Playlist „Reise nach München“ ein. Ich schlafe ein. myAI merkt das natürlich, dimmt die Musik und fährt das Noise Cancelling hoch. Kurz vor Nürnberg weckt sie mich.
Das System erinnert mich an die beiden „Tasks“, die ich für die Zugfahrt als „Pflicht“ markiert hatte. Ich hole meine Datenbrille aus der Innentasche des Sakkos und betrete den Raum für Präsentationen. myAI führt mich noch einmal durch die Argumentationskette, die ich nachher in der Besprechung aufbauen möchte. Ich stelle per Gestensteuerung eine Folie um und lasse noch einmal den semantischen Konsistenz- Check durch die Notizen unter den Grafiken laufen. myAI zeigt an, dass es keine Inkonsistenzen erkennt, und fragt, ob ich eine letzte Durchlaufansicht in Realzeit starten möchte. Danke, aber nein danke. Ich verlängere stattdessen lieber meine Schach-Trainingseinheit. Thomas Ramge | Foto: Peter van Heesen
Ich bin so in die Eröffnungen vertieft, dass ich gar nicht merke, wie wir in den Hauptbahnhof München einfahren. myAI hat das Sammeltaxi zum Coworking-Space dankenswerterweise bereits gebucht. Sie schaltet sich ab mit dem Hinweis, dass ich heute bereits 70 Prozent meiner von mir vorgegebenen Online-Zeit verbraucht habe und sie in den Low-Intervention-Modus geht. Auf dem Rückweg werde ich lesen müssen. Oder mit anderen Reisenden plaudern. Oder ich muss bewusst die Entscheidung treffen, myAI noch mehr Raum in meinem Leben zu geben.
Weitere Stichworte von Thomas Ramge über die Zukunft kreativer KI gibt es hier.
In seinem neuen Buch Postdigital - Wie wir Künstliche Intelligenz schlauer machen, ohne uns von ihr bevormunden zu lassen, argumentiert KI-Experte Thomas Ramge, dass Menschen bei all dem Hype um KI vergessen, sich zu fragen, wem Technologie wirklich nützt und wo sie mitunter mehr Schaden anrichtet als Nutzen stiftet.
In den folgenden Auszügen aus dem Buch nimmt Ramge seinen digitalen persönlichen Assistenten „myAI“ und den Leser auf eine Zugreise von Berlin nach München im Jahr 2030 mit.
---
myAI hat mich eine Stunde früher geweckt, damit ich den frühen Zug nach München erwische. Ich habe mich lange dagegen gewehrt, die Smart-Speaker von myAI in unsere Wohnung zu lassen. Ich denke immer noch, dass smarte Lautsprecher so ehrlich sein sollten, sich Smart-Microphones zu nennen. Aber jetzt vor dem Kleiderschrank bin ich froh, dass ich myAI kurz fragen kann, wann genau das Elektro-Sammeltaxi zum Bahnhof Südkreuz kommt. Meine persönliche KI hat es automatisch bestellt, nachdem sie gestern noch ein Sparticket nach München gefunden und gebucht hatte.
In meinem Freundeskreis gehörte ich zu den Ersten, die 2026 ein myAI-Abo abgeschlossen haben. Meinen Freunden erschien es damals absurd, einem israelischen Start-up 100 Dollar im Monat zu bezahlen, das mit dem Slogan wirbt: »Du sagst an!« Es stimmte schon: myAI konnte damals nicht viel mehr als die kostenlosen oder zumindest sehr viel günstigeren KI-Assistenten von Google, Apple, Amazon, Microsoft, Samsung und Tencent. Terminkoordination und Reiseplanung funktionierten bei myAI nach meinem Eindruck etwas besser, Shopping- und Schreibassistenz hingegen schlechter. Bei den Gesundheitsanwendungen konnte ich es nicht recht einschätzen. Aber ich habe mir damals sehr bewusst gesagt: Ich habe keine Lust mehr auf dieses undurchschaubare Bündel an Diensten, das die großen Online-Plattformen schnüren und bei dem man nie weiß, welche Daten die Plattformen für was nutzen.
myAI hat versprochen, ausschließlich meine Interessen zu vertreten, nach meinen Präferenzen. In den AGB war klar geregelt, dass myAI alle meine Daten in Europa speichert und verarbeitet, wo immer sinnvoll und möglich kryptografisch abgesichert. myAI darf niemals Daten an Dritte weitergeben, sofern ich dem nicht explizit zustimme. Mir war schon damals absolut klar: Ein KI-Assistent, der immer auf deiner Seite steht, der dir nichts verkaufen möchte, der dich nicht mit Werbung zuballert, der keine provisionsbasierten Nebengeschäfte mit Partnern macht und auch kein Interesse daran hat, dich möglichst lange in seinen Bann zu ziehen, sondern so programmiert ist, möglichst wenig deiner Zeit zu fressen, der muss teuer sein. Oder schlecht.
Die Trainingsphase des Systems hat länger gedauert als versprochen. Ich hatte anfangs oft das Gefühl, es versteht nicht, was ich will. Heute nimmt mir myAI viele Routineentscheidungen ab, die mich früher viel Zeit und Mühe gekostet haben. Am besten funktioniert nach wie vor die Kaufassistenz. Das System hat über die Jahre meine Präferenzen sehr gut kennengelernt. Bei Grundnahrungsmitteln, Haushalts- und Bürokram habe ich schon vor Jahren die automatische Bestellfunktion freigeschaltet. myAI bestellt meist bei dem günstigsten Händler, es sei denn, er hat zu schlechte Bewertungen.
Ich verschwende auch nicht mehr zwei oder drei Stunden für den Online-Kauf eines Fahrradschlosses. Bei mittleren und größeren Anschaffungen schaue ich mir nur noch die drei Vorschläge an, die myAI macht. In der Regel klicke ich dann einfach auf die »Your Best Deal«-Empfehlung, und ich habe den Eindruck, auf diese Weise deutlich weniger Fehlkäufe zu machen als früher.
Ich hätte übrigens nicht gedacht, dass wir die „Your Best Meal“-Funktion mit der verbundenen Einkaufsplanung irgendwann tatsächlich nutzen. Meine Frau war strikt dagegen. Auch ich finde die Idee, dass uns eine KI sagt, was wir essen sollten, leicht demütigend. Aber irgendwie hat sich das System doch in unsere Ernährung geschlichen. Wir nehmen die Vorschläge sicher drei- bis viermal pro Woche an, essen viel ausgewogener und vor allem deutlich weniger Fleisch, was wir uns immer vorgenommen, aber nie umgesetzt hatten. Am Beispiel des Essensplans lässt sich eine der größten Stärken von myAI gut verdeutlichen, nämlich grundsätzliche Lebensentscheidungen wirksam in die vielen kleinen Alltagsentscheidungen zu integrieren. Verhaltenswissenschaftler würden es wohl so formulieren: Der Assistent hilft mir dabei, meinen „attitude-action gap“ zu überwinden.
Ich sehe die kleinen Verhaltensschubser von myAI für mich vor allem als positiv motivierende Impulse in einem Lernprozess hin zu Verhaltensmustern, die in Einklang mit meinen grundsätzlichen Vorstellungen von einem guten Leben stehen, die ich aber aus Bequemlichkeit oder Inkonsequenz viel zu oft breche und mir dafür dann gute Ausreden vor mir selbst ausdenke. Jetzt fühlt es sich hingegen oft so an, als habe jemand einen Kippschalter umgelegt.
Besonders gut funktioniert hat diese Steuerungshilfe zur besseren Selbststeuerung übrigens beim Thema Müllvermeidung und Wertstoffkreisläufe. Natürlich habe ich im Supermarkt schon immer darauf geachtet, Tomaten zu kaufen, die nicht in Plastik einpackt sind. Doch mit myAI habe ich endlich beim Kauf fast jedes Produkts in nahezu jeder Produktkategorie ein deutlich besseres Einschätzungsvermögen, wie viel Müll ich gerade zu mir nach Hause schleppe beziehungsweise liefern lasse. Recyclingpotenzial, CO2-Emissionen im Lebenszyklus, Gesamtumweltbilanz eines Produktes sind extrem kompliziert. Genauer gesagt: Es ist meist so kompliziert, dass ich vor der Kompliziertheit im- mer wieder kapituliert habe. myAI muss dies nicht. Es sind zwar sehr viele Kriterien, die es miteinander abwägen muss, aber die Kriterien sind klar und die Eigenschaften messbar. Im Unterschied zu mir fällt es nicht auf Greenwashing-Tricks rein, denn es unterliegt ja nicht meinen menschlichen Bias und kognitiven Beschränkungen bei der Abwägung von Präferenzen und Verarbeitung von Informationen.
Bei kleinen Kaufentscheidungen gibt mir das System nur einen kurzen Hinweis, wenn die Entscheidung nicht im Einklang mit meiner Vorgabe „hoher Umweltstandard“ steht. Bei größeren Entscheidungen allerdings geht myAI ausreichend tief in die Details, ohne mich zu überfordern. Den Programmierern des Systems ist es in beeindruckender Weise gelungen, Umweltauswirkungen so zu visualisieren, dass ich mir ein deutlich schlüssigeres Bild für meine Entscheidungsgrundlage machen kann. Ich empfinde hier myAI als meinen persönlichen Intelligenzverstärker für informiertere Entscheidungen.
Es stört mich nicht, dass myAI sowohl Privates als auch Berufliches steuert. Früher musste ich ja auch private und berufliche Termine miteinander koordinieren. Ich habe das Gefühl, dass mein KI-Assistent ganz gut gelernt hat, private und berufliche Präferenzen zu unterscheiden. E-Mail-Ping- pong zur Terminvereinbarung habe ich zum Glück hinter mir gelassen. Das habe ich voll an myAI delegiert, auch auf die Gefahr hin, dass mal ein Termin nicht zustande kommt. Man hat ja eh zu viele.
Endlich sitze ich im Zug und setze den Kopfhörer auf. myAI checkt mich auf meinem Platz ein und fragt: „News oder Hintergrund?“ Ich sage: „Zehn Minuten News, 20 Minuten Hintergrundpolitik.“ Das System stellt mir meinen Podcast aus der Liste von Quellen zusammen, die ich regelmäßig auf Grundlage seiner Vorschläge freischalte. Wenn mich Themen direkt politisch betreffen, sagt myAI das vor der Meldung kurz an.
Gelegentlich gebe ich dem System Rückmeldung, ob ich mit seiner Einschätzung zur Relevanz für mich und mein Leben übereinstimme. In einem Dialogfenster poppen dann immer drei Gründe auf, warum das System ein Thema als für mich persönlich relevant einschätzt. Die drei Argumente kann ich dann einzeln bestätigen oder verwerfen. Das System sammelt so kontinuierlich Informationen, die auch in meine Wahl-o-Mat-Empfehlungen eingehen.
myAI informiert auffällig häufig über KI-Themen. Manchmal frage ich mich, ob das nur mit meinen Präferenzen zu tun hat oder ob das System selbst an einer selbstwertdienlichen Verzerrung leidet, unter einem künstlich intelligenten Lake- Wobegon-Effekt. Kürzlich spielte es mir einen sehr spannenden Podcast zu der Frage zu: „Gibt es ein Anrecht auf eine Grundversorung mit KI?“ myAI wurde darin als ein Beispiel genannt, dass die aktuellen Entwicklungen bei KI-Assistenz die digitale Ungleichheit verschärfen. Wer 100 Euro im Monat für einen unabhängigen Assistenten übrig hat, kann sich Zugang zu künstlicher Intelligenzverstärkung kaufen. Wer das Geld nicht hat, ist auf günstige oder kostenlose Systeme an- gewiesen und muss unter Umständen in Kauf nehmen, dass die eigenen Daten für Entscheidungsvorschläge genutzt werden, die den jeweiligen Nutzerinteressen zuwiderlaufen.
Meine tägliche Podcast-Info-Einheit endet immer mit drei Minuten "Serendipity-Input". Ich habe myAI strikt angewiesen, mir jeden Tag einen Beitrag zu einem Thema zuzuspielen, von dem die Daten dem System sagen: Dafür interessiere ich mich nicht. Die Anti-Empfehlungen sind wirklich gut. Meist interessiert mich das Thema wirklich nicht, aber ich kann den Serenpidity-Input nicht unterbrechen. Natürlich könnte ich den Kopfhörer abziehen, aber das mache ich fast nie. Denn dann spüre ich physisch zu deutlich, dass ich gegen meine selbst gesetzten Regeln verstoße. Nach dem Info-Podcast stelle ich meine Playlist „Reise nach München“ ein. Ich schlafe ein. myAI merkt das natürlich, dimmt die Musik und fährt das Noise Cancelling hoch. Kurz vor Nürnberg weckt sie mich.
Das System erinnert mich an die beiden „Tasks“, die ich für die Zugfahrt als „Pflicht“ markiert hatte. Ich hole meine Datenbrille aus der Innentasche des Sakkos und betrete den Raum für Präsentationen. myAI führt mich noch einmal durch die Argumentationskette, die ich nachher in der Besprechung aufbauen möchte. Ich stelle per Gestensteuerung eine Folie um und lasse noch einmal den semantischen Konsistenz- Check durch die Notizen unter den Grafiken laufen. myAI zeigt an, dass es keine Inkonsistenzen erkennt, und fragt, ob ich eine letzte Durchlaufansicht in Realzeit starten möchte. Danke, aber nein danke. Ich verlängere stattdessen lieber meine Schach-Trainingseinheit. Thomas Ramge | Foto: Peter van Heesen
Ich bin so in die Eröffnungen vertieft, dass ich gar nicht merke, wie wir in den Hauptbahnhof München einfahren. myAI hat das Sammeltaxi zum Coworking-Space dankenswerterweise bereits gebucht. Sie schaltet sich ab mit dem Hinweis, dass ich heute bereits 70 Prozent meiner von mir vorgegebenen Online-Zeit verbraucht habe und sie in den Low-Intervention-Modus geht. Auf dem Rückweg werde ich lesen müssen. Oder mit anderen Reisenden plaudern. Oder ich muss bewusst die Entscheidung treffen, myAI noch mehr Raum in meinem Leben zu geben.
Weitere Stichworte von Thomas Ramge über die Zukunft kreativer KI gibt es hier.