Lernende Maschinen, oder: Wie künstlich ist die künstliche Intelligenz? Teil 2

29. Januar 2020 | Dr. Clemens Apprich

Humanoider Roboter | © Alex Knight | Unsplash

Neuronale Netze versuchen das menschliche Gehirn nachzuahmen. Natürlich bleiben diese Versuche im Vergleich zur tatsächlichen Komplexität des Zerebrums oberflächlich und niemand behauptet ernsthaft (zumindest im Moment), ein künstliches Hirn herzustellen. Das Gehirn liefert jedoch die Vorlage für ein Modell, auf dem künstliche neuronale Netze aufgebaut sind. Die Reduzierung der intellektuellen Fähigkeiten auf die materielle Struktur des Gehirns ist dabei äußerst problematisch, nicht zuletzt, weil sie zu einer Wiederbelebung biologistischen Denkens führt. [9] In Abgrenzung zu diesem hat die Psychoanalyse von Anfang an versucht, die psychodynamische Grundlage des menschlichen Geistes zu beschreiben. Der von ihr eingeführte psychische Apparat ist – im Gegensatz zum hirnphysiologischen Modell – keineswegs ein rein endopsychisches Phänomen, sondern immer auch von äußeren Einflüssen abhängig. [10] Die Psychoanalyse konstituiert das Psychologische – und damit unsere Denkleistung – nicht als etwas Inneres, sondern theoretisiert es aus einer relationalen Perspektive, die das Zusammenspiel zwischen Innen und Außen betrachtet.

Ein psychoanalytisches Verständnis von Künstlicher Intelligenz kann uns dabei helfen, die Lernfähigkeit von Maschinen besser zu beurteilen. Nicht nur in deren Beziehung zu Menschen und den von ihnen generierten Daten (siehe Teil I), sondern auch in Bezug auf die Generierung Künstlicher Intelligenz selbst. Nehmen wir als Beispiel Amazons Echo, Apples Siri, Googles Assistant oder Microsofts Cortana, alles kommerzielle Anwendungen von maschinellen Lernalgorithmen. Um Informationen aus den Daten zu extrahieren und so die Anfragen ihrer (zumeist menschlichen) Benutzer*innen beantworten zu können, sind diese virtuellen Assistenten auf eine immense Infrastruktur angewiesen. [11]  Diese muss nicht nur aufgebaut und gewartet werden, ein Unterfangen das sich im Moment nur kapitalstarke Unternehmen leisten können, sondern auch versteckt bleiben. Um den Anschein einer wahrhaften, das heißt sich selbst genierenden Intelligenz zu bewahren, darf der immense Apparat, der zu Herstellung eben dieser Intelligenz notwendig ist, nicht zum Vorschein kommen. Ähnlich dem Unbewussten wird das äußerliche Verhältnis – und damit die Abhängigkeit davon – verdrängt.
    
Ein wesentlicher Teil dieser Verdrängung betrifft die freie Arbeit, die in Form unzählig hochgeladener Bilder, Videos, Text- und Sprachnachrichten das System überhaupt erst zum Laufen bringt. [12] Hier zeigt sich, dass Künstliche Intelligenz gar nicht so künstlich ist, wie es zunächst scheinen mag. Vielmehr haben wir es mit einer zunehmenden Auflösung einer ohnehin immer schon brüchigen Grenze zwischen menschlicher und nicht-menschlicher, zwischen lebender und toter Arbeit zu tun. [13] So ist der „Completely Automated Public Turing Test to Tell Computers and Humans Apart” (CAPTCHA) unter anderem dazu entwickelt worden, um gescannte Textbausteine in maschinenlesbaren Text zu übersetzen. [14] Während Turing mit seinem berühmten Imitation Game die Fähigkeit der Maschine, sich wie ein Mensch zu verhalten, testen wollte, zwingt CAPTCHA den*die menschliche*n Nutzer*in sich wie eine Maschine zu verhalten, um ihn*sie letztlich von dieser unterscheiden zu können. Die Überführung menschlicher in maschinelle Tätigkeit ist eine in digitalen Kulturen weit verbreitete Strategie, die nicht zuletzt bei der Automatisierung von solchen Arbeitsschritten zum Tragen kommt.

Mit dem Auf- und Ausbau einer Infrastruktur des Digitalen, an deren Oberfläche Konzerne begonnen haben, den durch permanente Datenproduktion generierten Wert abzuschöpfen, hat sich ein neues Unbewusstes gebildet. Das Kapital positioniert sich darin als Lebenskraft, die das Potenzial eines sich selbstgenerierenden Systems enthält. Somit ist es auch nur konsequent, wenn sich Künstliche Intelligenz am menschlichen Gehirn orientiert. Der angebliche Ort eines autonomen, sich selbst hervorbringenden Bewusstsein, hat seit jeher der Fetischisierung von Intelligenz als individuelle Eigenschaft Vorschub geleistet. [15] Dabei wäre gerade die Anerkennung des Kollektiven als Voraussetzung jeglicher Intelligenz notwendig, um so das technologisch Unbewusste – wie es sich nicht zuletzt in algorithmischen Stereotypen zeigt – in den Blick zu bekommen. Intelligenz ist nicht einfach etwas, das im Kopf sitzt und durch neuronale Netzwerke nachgebaut werden könnte. Sie ist vielmehr ein immer schon intelligibles, das heißt kollektives Unterfangen.

 

Endnoten:

[9] Dieser Denkansatz geht im Wesentlichen auf den Beginn der modernen Psychiatrie im späten 19. Jahrhundert zurück und stellt den Versuch dar psychische Erkrankungen mittels neurophysiologischer Erkenntnisse zu erklären.
[10] Es war kein Geringerer als Sigmund Freud, der in seinem „Entwurf einer Psychologie” (1895) erstmals die Idee eines psychischen Apparats skizzierte. Dieser ursprünglich neurologisch konzipierte Apparat wurde in späterer Folge – parallel zur Entwicklung der Psychoanalyse – mehrfach umgearbeitet, bis er dem heute bekannten Instanzenmodell (Es – Ich – Über-Ich) entsprach.
[11] Siehe hierzu die beeindruckende Karte von Kate Crawford und Vladan Joler (2018): https://anatomyof.ai.
[12] Siehe Tiziana Terranova: „Free Labor: Producing Culture for the Digital Economy”, in: Social Text, Bd. 18: 2 (2000): 33-58.
[13] Zur Verwandlung von lebender in toter Arbeit und die organische Zusammensetzung von Kapital, siehe Karl Marx: „Resultate des unmittelbaren Produktionsprozesses“, in: Archiv sozialistischer Literatur 17 (1968), https://www.marxists.org/deutsch/archiv/marx-engels/1863/resultate/index.htm.
[14] Um genau zu sein handelt es sich hierbei um reCAPTCHA, eine Erweiterung der 2000 entwickelten CAP-TCHA-Methode.
[15] Erinnert sei hier nur an die Einführung des Intelligenztests Anfang des 20. Jahrhunderts. Der ursprünglich von Alfred Binet und Théodore Simon entwickelte Test dient der Messung der kognitiven Leistungsfähigkeit einer einzelnen Person. Seine biologistische – und nicht zuletzt rassistische – Ausrichtung ist Gegenstand zahlreicher Kritik (siehe z.B. Stephen Jay Gould: Der falsch vermessene Mensch [Frankfurt a. M.: Suhrkamp, 1999]).

Ein Beitrag von
Dr. Clemens Apprich
Leuphana Universität Lüneburg

Hinweis: Dieser Artikel erschien zuerst als „The Corrupt State of Artificial Intelligence”, in Texte zur Kunst, Heft 109 (2018): 136-141. Er wurde für die Zwecke dieses Blogs gekürzt, übersetzt und überarbeitetet.