Planning Grants

Förderung zur Weiterentwicklung von Ideenskizzen

Aus über 200 Bewerbungen aus acht europäischen Ländern hat die Jury 22 Teams und 25 Einzelpersonen für LINK-Masters ausgewählt. Die Auftaktveranstaltung – ein dreitägiger digitaler Workshop – fand Anfang November 2020 statt.

Die nominierten Kulturschaffenden arbeiten in den Bereichen Film, Literatur, Architektur, Museum, Theater, Tanz, Musik und Kunst. Die Wissenschaftler*innen kommen unter anderem aus den Bereichen Neurosciences, Digital Humanities, Design und Digital Media, Technikphilosophie, Machine Learning und Deep Learning. Etwa die Hälfte der Teilnehmer*innen ist freischaffend tätig. Die andere Hälfte ist universitär an den großen Kunsthochschulen, Technikuniversitäten und Forschungszentren, wie etwa den Universitäten in Hannover, Osnabrück, Wien, Tübingen, Berlin, Halle/Saale und Jülich angebunden. Die LINK-Masters kommen aus Deutschland, Estland, Großbritannien, Malta, Österreich, Italien und den Niederlanden.

Folgende Projektideen erhalten Planning Grants:

– A bis Z –

AI as collective performance

Beteiligte: Mika Satomi (Künstlerin und Designerin), Berit Greinke (Universität der Künste Berlin und Einstein Center Digital Future), Alex McLean (Musiker und KI-Forscher), Juan Felipe Amaya Gonzalez (Performancekünstler) und Deva Schubert (freie Choreografin)

Das transmediale Projekt „AI as collective performance” von Mika Satomi, Berit Greinke, Alex McLean, Juan Felipe Amaya Gonzalez und Deva Schubert setzt sich mit der Erklärbarkeit von Algorithmen und Künstlicher Intelligenz auseinander und umfasst eine plastische Umsetzung zur Vermittlung einer transparenten KI. Das Ziel ist die Entwicklung einer gemeinsamen Performance, in der durch die Choreografie, interaktive textile Kostüme und Live-Coding die Prozesse hinter KI sichtbar werden. Jede Person repräsentiert einen ‚Node‘ des Netzwerks, das wächst, sich verändert, Muster aufbricht und wieder Neues schafft. In diesem Projekt wirkt der menschliche Körper als Prozessor. Hier ist ein*e Choreograf*in gleichzeitig Programmierer*in. Durch die Übersetzung von KI in physische Bewegungen wird die komplexe Technik greif- und erfahrbar.

AI Tool for Dance and Choreography – It’s embodied and personalized, dare improvise?

Beteiligte: Oliver Schürer, Helena Frijns und Darja Stoeva (alle Technische Universität Wien), Christoph Hubatschke (Universität Wien), Eva-Maria Kraft (Tänzerin und Choreografin) und Brigitte Krenn (Austrian Research Institute for Artificial Intelligence (OFAI)

Das experimentelle Projekt „AI Tool for Dance and Choreography – It’s embodied and personalized, dare improvise?” unter Beteiligung von Oliver Schürer, Helena Frijns, Christoph Hubatschke, Darja Stoeva, Eva-Maria Kraft und Brigitte Krenn ermöglicht Experimente zur Entwicklung neuer tänzerischer Ausdrucksformen. Das Vorhaben zielt auf die Erschaffung eines maschinellen Partners für Tanzimprovisationen ab. Das Tool erfasst Raum als definierenden Rahmen für Tanz und Choreographie und kann individuelle menschliche Ausdrucksformen lernen. Es besteht aus der Verkörperung eines KI-Systems in Form eines humanoiden Roboters, einem*r Künstler*in mit entsprechenden Kenntnissen und Fähigkeiten und dem physischen Raum der Interaktion. Das Projekt dient als Experimentiermöglichkeit und Forschungsmethode für Tänzer*innen und Choreograf*innen.

AIDIOPHONICS

Beteiligte: Sebastian Voigt (Robotikspezialist und Produktdesigner), Jan-Peter E. R. Sonntag (Künstler, Komponist, Forscher und Entwickler)

In dem innovativen Musikprojekt „AIDIOPHONICS“ von Sebastian Voigt, Produktdesigner spezialisiert auf Robotic Fabrication und Jan-Peter E. R. Sonntag, Medienkünstler und Komponist wird nicht die Komposition, also Musikgenerierung von KI ausgeführt, sondern der Herstellungsprozess der Instrumente durch Maschinen optimiert wird. Das Team entwickelt Idiophone, sogenannte selbstklingende Instrumente in einem künstlerischen und technischen Entwicklungs- und Forschungsvorhaben mit Hilfe eines Roboter-Arms. Der Roboter-Arm kann über Druck (Incremental sheet Forming) oder Schläge (Machine hammer peening) präzise das Instrument formen. Alle Schlagfolgen, -stärken und -positionen werden gespeichert und können in Bezug auf ein klangliches Ergebnis, das nicht nur vom menschlichen Ohr aufgenommen und vom menschlichen Agenten bewertet, sondern auch technisch aufgezeichnet und in Relation zum robotischen Herstellungsprozess gestellt wird, wiederholt und modifiziert werden. Auf diese Weise werden ganz neue Instrumente – AIdiophone – möglich. Mit diesem Projekt stellen sich mehrere Fragen: Welche neuen Klangwelten und Tonalitäten können durch gänzlich neue Formen erzeugt werden, die erst mit einem Roboterarm und der Verifizierung über KI möglich sind? Wenn ein neuer Selbstklinger generiert und von Menschen gespielt wird, wie würde der Algorithmus dann ein klanggleiches Pendant errechnen, das ein Roboterarm spielt?

ANA – eine empathische Theaterinstallation zu gemeinsamer Geschichtsimprovisation

Beteiligte: Christian Ziegler (Regisseur, Medienkünstler und Architekt), Leonid Berov (Universität Osnabrück), Gunter Lösel (Zürcher Hochschule für Künste) und Ilja Mirsky (Institut für theatrale Zukunftsforschung am Zimmertheater Tübingen sowie Universität Tübingen)

Das ambitionierte Projekt „ANA – eine empathische Theaterinstallation zu gemeinsamer Geschichtsimprovisation“ von Christian Ziegler, Leonid Berov, Gunter Lösel und Ilja Mirsky wird eine interaktive, multimodale Theaterinstallation entwerfen, in der ein Chatbot und Besucher*innen kollaborativ eine Geschichte improvisieren. Stil und Inhalt der Geschichte können vom affektiven Zusammenhang dieser Kommunikationssituation beeinflusst werden. Der*die Besucher*in kommuniziert in einem technisch entsprechend ausgestatteten Raum über Mikrofone und Kameras mit dem Chatbot, der wiederum über die Beleuchtung, Geräusche, Rhythmen und Temperatur seine eigene Stimmung ausdrücken kann. Gemeinsam wird eine Geschichte entwickelt und auf die emotionalen Signale des Gegenübers reagiert. Ein Ziel des Projekts ist es das Potenzial von Empathie zwischen KI und Nutzer*innen aufzuzeigen und so zum Verständnis von Mensch-Maschine-Relationen beizutragen.

ArtPilot

Beteiligte: Jan Neukirchen (Künstler und Informatiker), Christian Lohre (Künstler), Aaron Israel (Künstler und Informatiker) und Kristina Sinn (Kunstverein Hannover)

Das kritisch-reflektierende Projekt „ArtPilot“ von Jan Neukirchen, Christian Lohre, Aaron Israel und Kristina Sinn lotet die Nutzungsmöglichkeiten aktueller Technik in einer ironischen Hinführung zur Kunst aus und spielt mit der Definitionshoheit von Kunstkritiker*innen und Kunstvermittler*innen. In dem Projekt übernehmen Roboterfahrzeuge die Kommentierung von Kunstwerken in einer Ausstellung. Die intelligenten Gefährte untersuchen die Räume, sind aber weder dem kuratorischen Konzept, noch dem Vermittlungskonzept untergeordnet, sondern fungieren als Kontrapunkt für die Besucher*innen – mal als bewusster Störfaktor und mal als Bereicherung. Das Anliegen des Projektes stützt sich auf die Grundidee Maschinen zu entwickeln, die neben Kunstkritiker*innen und Vermittler*innen in Diskussionen über das Ausgestellte einsteigen, die ergänzen und keineswegs mit ihnen in Konkurrenz treten. Vielmehr sollen Möglichkeit und Potenzial unverständlicher und scheinbar sinnloser Kommentare untersucht werden, die die Rezipient*innen zu einer dezidierten Auseinandersetzung mit der Kunst und dem Diskurs anregen.

Collaborative Spaces for Space Building – An Interactive, AI-based Design Exploration

Beteiligte: Andrea Kondziela (Leibniz Universität Hannover), Lena Gieseke (Filmuniversität Babelsberg Konrad Wolf) gemeinsam mit der KleRo GmbH Roboterautomation, Berlin

Das künstlerische und methodisch vielversprechende Projekt „Collaborative Spaces for Space Building – An Interactive, AI-based Design Exploration” von Andrea Kondziela und Lena Gieseke gemeinsam mit der KleRo GmbH aus Berlin zielt auf die Entwicklung eines KI-basierten Design-Systems ab, das künstlerisch bedeutsame Strukturen entwirft und mit Hilfe eines Roboters baut. Das zugrundeliegende Neuronale Netz wird mit dem notwendigen architektonischen Grundwissen gefüttert, um die Strukturen zu entwerfen. Ein 3D-Drucker stellt die Einzelteile her, ein Roboter baut sie zusammen und gleicht konstant das Arbeitsergebnis mit den Entwürfen ab. In der Entwicklungs- und Testphase spielt die Analyse und Bewertung der Kollaboration zwischen Mensch und Maschine eine wesentliche Rolle. In öffentlichen Präsentationen werden die einzelnen Prozesse nachvollziehbar und vermitteln eine positive Perspektive auf die Zusammenarbeit menschlicher Künstler*innen und maschineller KI-Werkzeuge.

DANCETRONIC – baroque meets robotics

Beteiligte: Andreas Karguth (GentleRobotics, ehemals: TETRA Gesellschaft für Sensorik, Robotik und Automation), Christian Fuchs (Puppenspieler und Regisseur), Alon Sariel (Musiker und Leiter Concerto Foscari), Marion Rennert (Tanzpädagogin), Patricia Hoffmann (Regisseurin, Autorin und Choreografin) und Dirk Rauscher (Art Direction und Motion Design)

Das vielversprechende Projekt „DANCETRONIC – baroque meets robotics” von Andreas Karguth, Christian Fuchs, Alon Sariel, Marion Rennert, Patricia Hoffmann und Dirk Rauscher experimentiert mit der Vollendung des Barocktheaters mit heutiger Technik. Es ist eine Mensch-Roboter-Tanzperformance, bei der Tänzer*innen mit robotischen Figuren auf der Bühne interagieren. Die Performance nimmt eine barocke Erzählung von Ludovico Ariost „Die Insel der Alcina“ zur Grundlage. Die Kombination aus dynamischen Körper- und Maschinenbewegungen in Verbindung mit interaktivem Video-Mapping und live gespielter Barockmusik, die durch KI einen neuen Klang erhält, bietet den Zuschauer*innen ein barockes Erlebnis. Das Robotik-Design der Figuren basiert auf Leichtbaukonzepten der Biomechanik und ihre Bewegungen erfolgen teilautonom. Mit dem Projekt soll gezeigt werden, wie Künstliche Intelligenz, Robotik und Video-Mapping im Theater angewendet werden können.

The Black Box Experience – AI Music & Emotion

Beteiligte: Stephan Baumann und Iuliia Brishtel (beide Deutsches Forschungszentrum für Künstliche Intelligenz Kaiserslautern), Hubertus Rath und Armin Pommeranz (beide Filmuniversität Babelsberg Konrad Wolf)

Das methodisch klug aufgestellte Projekt „The Black Box Experience – AI Music & Emotion” von Stephan Baumann gemeinsam mit Iuliia Brishtel, Hubertus Rath und Armin Pommeranz hat zum Ziel die emotionale Wirkung von KI-generierter Musik im Rahmen einer künstlerischen Installation zu analysieren. Es handelt sich um ein ArtScience Projekt, das auf die gegenseitige Befruchtung von Kunst und Wissenschaft bei den ausführenden Teammitgliedern sowie dem Publikum setzt. ArtScience wird erlebbar, das Mysterium KI greifbar. Ein schwarzer Überseecontainer steht metaphorisch für das schwer erfassbare Phänomen KI und zugleich als Provokation im öffentlichen Raum, im Artspace oder musealen Kontext. Im komplett dunk-len Inneren befindet sich ein audiophiles Soundsystem und die Probanden werden mit Smartband und portablem EEG auf ihre emotionale Reaktion vermessen, die beim Hören von KI-generierter Musik entsteht. Die erfassten Daten gehen in einen Datenpool, der seinerseits der Forschung zur Verfügung gestellt und parallel iterativ vom Team zur Projektlaufzeit für das Training eines Deep Learning Emotionsklassifikators verwendet wird. Die gewonnenen Erkenntnisse lassen sich für künftige GAN/VAE/CAN-Topologien nutzen.

The World-Builder's Guide to Dance and AI

Beteiligte: Anton Koch (Motion Bank, Hochschule Mainz), Daniel Bisig (Coventry University), Deva Schubert (freie Choreografin), Deborah Williams (University of Malta) und Anna Pakes

Das komplexe Projekt „The World-Builder's Guide to Dance and AI“ stellt eine Reihe von beispielhaften und wichtigen Forschungsfragen und untersucht, wie Welten durch bewegte menschliche und nicht-menschliche Agenten sowie diverse Anwendungen von KI konstruiert und verändert werden. Das interdisziplinäre Team verbindet Perspektiven aus KI, Choreografie, Anthropologie und Philosophie und besteht aus Anton Koch, Daniel Bisig, Deva Schubert, Deborah Williams, Anna Pakes und Heike Salzer. Über die nächsten sechs Monate wird sich die Arbeit des Teams auf vier Unterprojekte konzentrieren, die sich mit verschiedenen Arten von Welten beschäftigen und die körperlichen Mittel der Tänzer*innen auf unterschiedliche Weise einbeziehen: (1) die Abbildung konzeptioneller Welten in datengestützten choreografischen Arbeitsprozessen; (2) rechnerische Simulation von Welten auf der Grundlage biologischer und physikalischer Prinzipien; (3) Erweiterung virtueller Welten im Kontext von Gamedesign mittels spekulativer fiktionaler Choreografie; und (4) Erforschung der algorithmischen und rhythmischen Parameter folkloristischer Welten. Letztendlich soll ein „World builder's Guide to Dance and AI” erschaffen werden – eine multidimensionale Plattform, die Künstler*innen, Pädagog*innen, Studierenden und künftigen Forscher*innen Erkenntnisse und Ressourcen zur Verfügung stellt, die ihnen helfen, ihre eigenen Welten unter Einsatz von KI zu konstruieren und zu erforschen.

Theatermaschine

Beteiligte: Björn Lengers und Marcel Karnapke (CyberRäuber. Das Theater der virtuellen Realität)

Das ambitionierte Projekt „Theatermaschine“ von Björn Lengers und Marcel Karnapke (CyberRäuber) stellt die Frage, ob sich ein perfekter Theaterabend realisieren lässt. Innerhalb des Projekts soll KI alle Aufgaben einer Theaterproduktion übernehmen – Textentwicklung, Dramaturgie, Musik-Generierung, Beleuchtungskonzepte, Abgleich der durch die Schauspieler*innen vermittelten Emotionen und die Reaktionen des Publikums. Jeder Theaterabend wird so einzigartig. Das Projekt fußt auf der einjährigen Forschung, Konzeption, technischen Entwicklung und konkreten Inszenierung eines Vorgängerprojekts und erweitert dieses grundlegend. Die für die Umsetzung notwendigen Datenmengen wurden nicht zuletzt durch die vielen digitalen Formate und Theaterstreams während der pandemischen Einschränkungen produziert. Auch ein Scheitern des Experiments kann die Eingangsfrage beantworten und ist von großer Bedeutung.