Ecology of Worries (1-3)
Künstler*innen
Caitlin Foley und Misha Rabinovich
Land: USA
Website Caitlin & Misha
Das Künstlerduo Caitlin & Misha lässt sich von natürlich vorkommenden Systemen wie rhizomatischen Myzel-Netzwerken, der Ökologie des Mikrobioms und emergentem rosa Rauschen für die gemeinsamen Erfahrungen inspirieren, die sie in ihrer kollaborativen Kunstpraxis erschaffen. Sie kreieren unter anderem Installationen, Spiele, Datenvisualisierungen und Happenings. Ihr Ziel ist es, Kunstwerke zu schaffen, die einzigartige Möglichkeiten für gemeinsame Erfahrungen, Gedankenexperimente und gruppenbasierte Verjüngungskuren bieten, wie z. B. gemeinsames Schwitzen, Meditieren, Summen, Springen und sich Sorgen machen.
Caitlin Foley und Misha Rabinovich begannen ihre Zusammenarbeit 2010 als Teil einer Gruppe von Künstler*innen, die sich DS Institute at Syracuse University nannte, wo sie ihren MFA erhielten. Sie hatten Residenzen, die ihr kreatives Netzwerk und ihr Interesse an sozialer Praxis geprägt haben u. a. an der Flux Factory, dem ARoS Aarhus Kunstmuseum in Dänemark und Andrea Zittells Wagon Station Encampment. Sie sind Dozent*innen im Fachbereich Kunst & Design an der University of Massachusetts Lowell. Sie wurden mit dem Andrew W. Mellon Foundation Immersive Scholar Award und dem NEFA Creative City Grant ausgezeichnet und stellten unter anderem in der Science Gallery (London), dem EFA Project Space (NYC), dem New Museum's Ideas City Festival (NYC), Boston Cyberarts (Boston), Montserrat College of Art (Beverley, MA), Machine Project (LA), Torrance Art Museum in (LA) aus. Derzeit arbeiten sie an einem Auftrag für die Science Gallery London, um eine Reihe von partizipativen Workshops und einen Animationsfilm für die King's College Fecal Microbiota Transplantation (FMT) Promise Study zu erstellen.
Caitlin Foley und Misha Rabinovich begannen ihre Zusammenarbeit 2010 als Teil einer Gruppe von Künstler*innen, die sich DS Institute at Syracuse University nannte, wo sie ihren MFA erhielten. Sie hatten Residenzen, die ihr kreatives Netzwerk und ihr Interesse an sozialer Praxis geprägt haben u. a. an der Flux Factory, dem ARoS Aarhus Kunstmuseum in Dänemark und Andrea Zittells Wagon Station Encampment. Sie sind Dozent*innen im Fachbereich Kunst & Design an der University of Massachusetts Lowell. Sie wurden mit dem Andrew W. Mellon Foundation Immersive Scholar Award und dem NEFA Creative City Grant ausgezeichnet und stellten unter anderem in der Science Gallery (London), dem EFA Project Space (NYC), dem New Museum's Ideas City Festival (NYC), Boston Cyberarts (Boston), Montserrat College of Art (Beverley, MA), Machine Project (LA), Torrance Art Museum in (LA) aus. Derzeit arbeiten sie an einem Auftrag für die Science Gallery London, um eine Reihe von partizipativen Workshops und einen Animationsfilm für die King's College Fecal Microbiota Transplantation (FMT) Promise Study zu erstellen.
Caitlin Foley und Misha Rabinovich erforschen auf elegante Weise die Spannung zwischen der allgegenwärtigen Existenz von Maschinen und menschlichen Emotionen.
Die Arbeit „Ecology of Worries“ ist eine spekulative Untersuchung nicht-menschlicher oder alternativer Intelligenz, die einen gewissen Grad an Unheimlichkeit einsetzt. Die nicht-anthropomorphe, nicht-humanoide Erscheinung dieser "beunruhigenden" Kreaturen wird mit authentischer visueller Vorstellungskraft verhandelt, während die tatsächlichen archivierten Vermessungsinformationen und die modale Abstimmung (des GPT-2-Systems) dahinter der Szene einen Hauch des Realen verleiht. Die Arbeit löst eine empathische Projektion über die „seltsame“ Simulation intelligenter Wesen aus.
Die Verbindung zu „Bias“ scheint dabei nicht eindeutig zu sein. Die Arbeit bietet jedoch Überlegungen dazu, was passiert, wenn wir eine Ebene von Emotionen (und deren Nicht-Berechenbarkeit) in unsere Beziehung zu maschinengenerierten Bildern einbeziehen – was für viele Forschungen in diesem Bereich in der Zukunft wegweisend sein könnte.
„Ecology of Worries“ stellt die Frage, ob wir einer Maschine beibringen sollten, sich für uns zu sorgen. Es wird durch ein Archiv von tatsächlich aufgezeichneten Sorgen ermöglicht, die wir seit 2016 von Menschen gesammelt haben. Das Video besteht aus handgezeichneten Lebewesen. Einige Lebewesen werden durch synthetische Sorgen angetrieben, die mit dem neuronalen Netzwerk TextGenRnn generiert wurden, das mit dem Archiv der transkribierten Sorgen trainiert wurde. Andere basieren auf einem neuartigen maschinellen Lernsystem namens Generative Pretrained Transformer 2 (GPT-2), das als die KI tituliert wurde, die zu gefährlich sei, um sie freizugeben (Sie wurde trotz der Zweifel freigegeben). Die Leistung der Kreaturen, sich Sorgen zu machen, spiegelt die Evolution von maschinellen Lernsystemen wider. Die resultierenden Manifestationen der Algorithmen – mit intakten Glitches – werden in Form eines Augmented Reality (AR) Bestiariums präsentiert.
Indem wir synthetische Befürchtungen auf verschiedenen Ebenen der Raffinesse erschaffen und sie als unterschiedlich entwickelte Kreaturen erscheinen lassen, sprechen wir die Empathie der Betrachter an. Die Kreaturen in „Ecology of Worries“ erscheinen jedoch nicht aufgrund einer Art Allwissenheit lebendig, die ein Tech-Evangelist von einem digitalen Assistenten erwarten würde, sondern aufgrund ihrer sehr realen Schwächen. Die Kreaturen werden durch die Gegenüberstellung von vertrauten und abstrakten Sorgen unheimlich.
Das Training ist der Aspekt des maschinellen Lernens, der die wichtigste politische Dimension dieser Technologie aufgreift. Student*innen aus dem Silicon Valley schnorren Fotos ihrer Klassenkameraden zusammen oder häufen Fotos von Prominenten an, wo immer sie sie finden können, um ihre KI zu trainieren! Selbst wohlmeinende Menschen tun oft das Einfache, ohne die darauf resultierenden Probleme zu antizipieren. Daten, die „Bias“ aufweisen, geben den Maschinen die Voreingenommenheit ihrer Schöpfer*innen mit auf den Weg. Der großflächige Einsatz von KI durch US-Social-Media-Firmen in weiten Teilen der Welt hat die Stimmen von Alexa, Siri und Google Maps immer erkennbarer gemacht. „Ecology of Worries“ verfremdet die schwungvolle digitale Assistentenstimme, indem es diese Kreaturen darauf trainiert, sich um unsere (von einer Maschine umgedeuteten) Sorgen zu kümmern. Wenn also eine Maschine unsere Sorgen aufgreift, bedeutet das entsprechend, dass sie uns wirklich gehört hat? Wenn wir Maschinen unsere Seelen offenbaren, riskieren wir dann nicht, dass sie dasselbe mit uns tun? Der sogenannte Eliza-Effekt, der in den späten 60er-Jahren entdeckt wurde, führte dazu, dass Menschen einen Chatbot als intelligent und seriösen Gesprächspartner wahrnahmen. „Ecology of Worries“ dreht die Dynamik um, lässt die Maschinen uns etwas beichten – und versetzt uns damit in einen unangenehmen, nachdenklichen und manchmal mitunter vergnügten Gemütszustand.
Indem wir synthetische Befürchtungen auf verschiedenen Ebenen der Raffinesse erschaffen und sie als unterschiedlich entwickelte Kreaturen erscheinen lassen, sprechen wir die Empathie der Betrachter an. Die Kreaturen in „Ecology of Worries“ erscheinen jedoch nicht aufgrund einer Art Allwissenheit lebendig, die ein Tech-Evangelist von einem digitalen Assistenten erwarten würde, sondern aufgrund ihrer sehr realen Schwächen. Die Kreaturen werden durch die Gegenüberstellung von vertrauten und abstrakten Sorgen unheimlich.
Das Training ist der Aspekt des maschinellen Lernens, der die wichtigste politische Dimension dieser Technologie aufgreift. Student*innen aus dem Silicon Valley schnorren Fotos ihrer Klassenkameraden zusammen oder häufen Fotos von Prominenten an, wo immer sie sie finden können, um ihre KI zu trainieren! Selbst wohlmeinende Menschen tun oft das Einfache, ohne die darauf resultierenden Probleme zu antizipieren. Daten, die „Bias“ aufweisen, geben den Maschinen die Voreingenommenheit ihrer Schöpfer*innen mit auf den Weg. Der großflächige Einsatz von KI durch US-Social-Media-Firmen in weiten Teilen der Welt hat die Stimmen von Alexa, Siri und Google Maps immer erkennbarer gemacht. „Ecology of Worries“ verfremdet die schwungvolle digitale Assistentenstimme, indem es diese Kreaturen darauf trainiert, sich um unsere (von einer Maschine umgedeuteten) Sorgen zu kümmern. Wenn also eine Maschine unsere Sorgen aufgreift, bedeutet das entsprechend, dass sie uns wirklich gehört hat? Wenn wir Maschinen unsere Seelen offenbaren, riskieren wir dann nicht, dass sie dasselbe mit uns tun? Der sogenannte Eliza-Effekt, der in den späten 60er-Jahren entdeckt wurde, führte dazu, dass Menschen einen Chatbot als intelligent und seriösen Gesprächspartner wahrnahmen. „Ecology of Worries“ dreht die Dynamik um, lässt die Maschinen uns etwas beichten – und versetzt uns damit in einen unangenehmen, nachdenklichen und manchmal mitunter vergnügten Gemütszustand.