KI: Kreativität in der Literatur

6. September 2019 | Leonid Berov, M.Sc.

Geschichten begleiten Menschen seit Menschengedenken. Durch Geschichten organisieren wir Erlebtes und entdecken für uns Sinn oder Bedeutung in Wahrnehmungen, die per se lediglich Information transportieren. Auch der zwischenmenschlichen Kommunikation drücken sie ihren Stempel auf: Werden wir gefragt, wer wir sind oder wie unser Tag war, antworten wir häufig mit Geschichten. So weit geht unsere Prädisposition, dass Evolutionspsychologe Jonathan Gottschall den Menschen in seinem 2012 erschienenen Buch als das „geschichtenerzählende Tier“*1 tituliert.

Was Geschichten sind oder wie Menschen sie verfassen, darüber sind sich Künstler und Wissenschaftler weder jeweils noch gemeinsam, je einig geworden. KI eröffnet hier eine spannende neue Perspektive: Bringt man einer Maschine erfolgreich bei, sich Geschichten auszudenken, so kann man hoffen, dabei auch etwas über Geschichten wie auch über Geschichtenerzählende zu lernen.

Meine Arbeit beschäftigt sich primär mit dem Problem, wie der Plot*2  — also der Inhalt hinter jeder Verschriftlichung — von einem Softwaresystem autonom erstellt werden kann. Das umfasst im Kern zwei Forschungsfragen: (1) Wie kann der Plot als etwas dargestellt werden, dass ein Computer verarbeiten kann, und (2) auf welche Weisen kann diese digitale Plot-Datenstruktur auf der Suche nach ‚guten‘ Plots manipuliert werden?

Ein hilfreicher Ansatz für die erste Frage findet sich in der Arbeit der Narratologin Marie-Laure Ryan*3. Am Beispiel von Fabeln arbeitet sie heraus, dass der Plot ein dynamisches Phänomen ist, welches aus den Interaktionen von Figuren*4  emergiert, die sowohl untereinander als auch mit der Geschichtswelt interagieren, um Konflikte zu lösen. Diese Konflikte sind bestimmt von ihren Wünschen, Verpflichtungen und Wissen über die Geschichtswelt. Der Plot wird damit verstanden als die Menge der Figuren-Handlungen, der mentalen Ereignisse, die zu den Handlungen führen sowie Geschehnisse (also unabhängige Ereignisse der Geschichtswelt, wie zum Beispiel Wetterkatastrophen oder Zufälle).

Diese Analyse wird erweitert vom Narratologen Alan Palmer*5, der die Domäne aufspannt, aus der sich Ryans mentale Ereignisse speisen können: Palmer argumentiert, dass Figuren fiktionale Repräsentationen von mehr oder minder menschenähnlicher Funktion und Gestalt sind, und damit (menschenähnlich) auch eine fiktionale mentale Ebene haben: Intentionen, Gefühle und Persönlichkeiten. Mentale Ereignisse sind damit das Aufkommen oder Vergehen von Instanzen dieser Phänomene.

Die Interaktion von autonomen Entitäten, welche nach bestimmten Regeln miteinander und mit ihrer Umwelt interagieren, lässt sich gut durch das klassische KI-Konzept der Multiagenten Simulation modellieren. Speziell eine Schule, das sogenannte Belief-Desire-Intention (BDI) framework, bietet sich an, weil sie auf denselben philosophischen Annahmen ruht wie Ryans Ansatz. BDI beschreibt den Zustand von Agenten als:

  • eine Menge von (potentiell falschen) propositionalen Glaubenssätzen über die Umwelt, den „beliefs“;
  • eine Menge von erwünschten (potentiell konfligierenden) Umweltzuständen, den „desires“;
  • sowie einer Untermenge von desires, an deren Herbeiführung der Agent gerade arbeitet, den „intentions“.

 

Abbildung: Affektive Figurenarchitektur

Außerdem beschreibt BDI einen Algorithmus, mit dessen Hilfe Agenten basierend auf ihren beliefs iterativ desires auswählen, die sie gerade verfolgen können, und wie sie ihre Rechenzeit zwischen der Abarbeitung von bestehenden Plänen und der Reaktion auf neue Ereignisse aufteilen.
Diese Agentenarchitektur erfasst allerdings noch nicht alle der oben genannten Phänomene, die das fiktionale mentale Innenleben von Figuren beschreiben. In meiner Arbeit ist es mir gelungen, es um eine affektive Komponente zu erweitern, die unterschiedliche Ebenen von Emotionalität basierend auf psychologischen Modellen implementiert. In diesem System wird Persönlichkeit („Langzeitaffekt“) durch das Fünf-Faktoren-Modell beschrieben, das die Persönlichkeit eines Agenten auf den Skalen: Offenheit für Erfahrungen, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus abbildet. Von der Persönlichkeit eines Agenten ist seine Grundstimmung abhängig, ein Punkt im Skalenraum: Freude, Erregung und Dominanz. Die Stimmung eines Agenten („mittelfristiger Affekt“) ist allerdings veränderlich, und wann immer ein Gefühl aufkommt, schlägt die Stimmung in eine bestimmte Richtung aus, und verfällt über die Zeit erst langsam wieder gen Grundstimmung. Gefühle („Kurzzeitaffekt“) treten als Reaktionen des Agenten auf bestimmte Ereignisse auf, und sind durch die 24 Gefühle des OCC Katalogs beschrieben. Sowohl Persönlichkeit als auch Stimmung haben einen Einfluss auf den Planungsalgorithmus der Agenten. Im Resultat lassen sich die Figuren des zugrundeliegenden narratologischen Theorienkonstrukts als Agenten darstellen, die Geschichtswelt als die simulierte Umgebung des Agentensystems, und der Plot entfaltet sich aus umgebungsinduzierten Geschehnissen, den mentalen Ereignissen die die Figurenarchitektur während der Simulation produziert, sowie den Handlungen, die sich daraus ergeben.

Modelliert man mit Hilfe des beschriebenen Systems eine Geschichtswelt und eine Reihe von Figuren, so ergeben sich aus den resultierenden Dynamiken zwar Plots, allerdings keine ‚guten‘. Die Figuren folgen ihren alltäglichen Bedürfnissen und die Geschichte verharrt in einer Art narrativem Gleichgewicht ohne produktive Konflikte. Dies ist das Spielfeld für meine zweite Forschungsfrage nach dem geschickten Operieren auf dieser Plot-Datenstruktur zur Erzeugung interessanter Geschichten. Dies ist durchaus nicht trivial, da ein Nebeneffekt der vorangegangenen Betrachtung ist, dass die Handlungen von Figuren, also den autonomen Agenten, nicht vom System bestimmt werden können, um den Plot so direkt in eine andere Richtung zu lenken. Was eine Betrachtung von Abb. 1 jedoch offenbart, ist, dass die Architektur zwei antezedenslose Phänomene aufweist: Geschehnisse und Persönlichkeit. Diese können vom System also pro Simulation verändert werden, ohne dafür eine Rechtfertigung abliefern zu müssen. Die Intuition hinter diesem Ansatz ist, dass das System versucht, Figuren dazu zu manipulieren, etwas Interessantes zu tun, indem es ihnen ungewöhnliche Geschehnisse widerfahren lässt, und ihre Persönlichkeiten darauf ausrichtet, empfindsam zu reagieren.

Zur Veranschaulichung, eine Trockenübung in Computerkreativität: Nehmen wir als Ausgangszustand eine simulierte Fabelwelt mit einer Farm, sowie eine Figur mit neutraler Persönlichkeit: „Es war einmal eine rote Henne…“. Einmal ausgeführt, sitzt die Henne tagein tagaus in der Sonne und entspannt. Aus der Simulation emergiert ein Nicht-Plot, sie ist gefangen in einem narrativen Gleichgewicht.

In einem zweiten Durchlauf legen wir also ein Geschehnis fest: die Henne findet beim Entspannen ein Getreidekorn. Die Simulation wird ausgeführt, doch nichts Neues passiert. Gefangen in seiner antriebslosen Mentalität, reagiert das renitente Fabelwesen nicht auf unsere Manipulationsversuche.

Doch dies entmutigt uns nicht, und für den nächsten Durchlauf legen wir fest, dass unsere Henne hoch auf der Gewissenhaftigkeitsskala firmiert. Die Simulation läuft durch, siehe da: Die Henne arbeitet täglich gewissenhaft auf der Farm. Eines Tages findet sie ein Korn und fasst den Entschluss, Brot zu backen. Sie pflanzt das Korn, hegt und pflegt es, erntet Getreide, und so fort, bis sie glücklich warmes Brot in den Händen hält. Erfolg! Wir haben einen nichttrivialen Plot. Doch so leicht ist der interne Kritiker nicht befriedigt, ohne Widrigkeiten ist uns jede Geschichte nichts.

Im nächsten Durchlauf entscheiden wir uns, einen Antagonisten einzuführen: das Schwein, mit kaum Gewissenhaftigkeit und Verträglichkeit gesegnet, dafür reich an Neurotizismus, residiert nun auch auf der Farm. Doch die Simulation zeigt, unsere Mündel pflegen kaum Kontakt und der Plot bleibt unverändert.

Im letzten Versuch verfügen wir, beide Tiere seien hochgradig extrovertiert. Voilà: Die Henne findet ein Korn und fragt das Schwein um Hilfe beim Anbau. Empört verweigert sich das Nutztier. Auch beim Pflegen, Mahlen und Backen entzieht es sich wiederholten Hilfsgesuchen vehement. Am Ende hält die Henne das Brot in ihren Händen und kocht vor Wut. Sie fasst einen perfiden Plan: Mit ihrem Luxusgut stolziert sie zum Schwein und fragt: „Willst du mir helfen das Brot zu essen?“. „Klar“, sagt das Schwein. „Na dann sieh mal zu“, sagt die Henne, und isst das Brot—ganz alleine. The end.

Abbildung: Die Operationalisierung eines Modells des kreativen Schreibens nach Mike Sharples.

Das eben beschriebene Verhalten reflektiert ein psychologisches Modell kreativen Schreibens , das von Mike Sharples vorgestellt wurde. Schreiben, so Sharples*6, funktioniert als ein iterativer Prozess bestehend aus der Auseinandersetzung mit schriftstellerischen Entscheidungen („engagement“), sowie der Reflektion, die diese Entscheidungen festlegt („reflection“). Im Fall meiner Arbeit wird engagement durch Simulationen implementiert, während reflection durch einen Generate-and-Test Prozess umgesetzt wird. Es ist offen dafür, andere narrative Probleme zu bearbeiten, oder andere Lösungen für sie zu finden, und durchsucht auf diese Weise einen Raum möglicher Plots, aufgespannt durch das zugrundeliegende Simulationssystem.

 

Intuitiv wird Kreativität häufig als unergründliches, dem Menschen vorbehaltenes Phänomen verstanden. Meine Hoffnung ist, dass dieser kurze Exkurs in angewandter KI den geneigten Leser zum Hinterfragen anregt, ob diese Einstellung nicht unnötiger Mystifizierung entwächst, und ob KI als Forschungsgegenstand nicht auch für das Menschliche wichtige Einsichten birgt.

In wissenschaftlichem Argot beschrieben, vereinigt der von mir skizzierte Ansatz Einsichten aus Narrationstheorie sowie Psychologie, und kann somit als Ausgangspunkt dienen, um systematisch und reproduzierbar Hypothesen im Spannungsfeld beider Disziplinen zu testen. Außerdem geht er einen kleinen Schritt auf dem langen Weg in Richtung geschichtenerzählender Maschinen.

*1 „The Storytelling Animal: How Stories Make Us Human” (Houghton Mifflin 2012)

*2 Der Plot einer Geschichte wird manchmal auch als die Handlung, oder die Fabula, bezeichnet. Er steht im Gegensatz zum Diskurs, also der schriftlichen und rhetorischen Darstellung der Geschichte.

*3 „Possible Worlds, Artificial Intelligence and Narrative Theory” (Indiana University Press 1991)

*4 Diese werden auch fiktionale Charaktere genannt, was den Fokus darauf lenkt, dass sie nicht nur ein synthetisches Konstrukt, sondern auch Repräsentationen menschlicher Natur, sind.

*5 „Fictional Minds“ (University of Nebraska Press, 2004)

*6 Im englischsprachigen Original ist das Modell als „Engagement-Reflection Model“ bekannt.

Autor des Beitrags
Leonid Berov
Institut für Kognitionswissenschaften | Universität Osnabrück
PhD student