Lernende Maschinen, oder: Wie künstlich ist die künstliche Intelligenz? Teil 1

10. Januar 2020 | Dr. Clemens Apprich

Die wohl am meisten diskutierte Frage in Bezug auf Künstliche Intelligenz (KI) betrifft die Lernfähigkeit von Maschinen. Bereits 1950 fragt Alan Turing in „Computing Machinery and Intelligence”, ob Maschinen lernen können oder nicht. Er tut dies, indem er eine ganze Reihe von Einwänden gegen die Möglichkeit selbstlernender Maschinen diskutiert. Entscheidend für ihn ist derjenige von Ada Lovelace, einer britischen Mathematikerin des frühen19. Jahrhunderts. Sie war gegenüber der Lernfähigkeit von Maschinen skeptisch, insbesondere was deren Fähigkeit betrifft, eigenständig Regeln zu entwickeln. Die Analytical Engine, ein mechanischer Universalcomputer, der 1837 von Charles Babbage entworfen und von Lovelace beschrieben wurde, konnte ihrer Ansicht nicht ihren eigenen Code schreiben, sondern lediglich auf die Anweisungen eines/r menschlichen Programmierers/in reagieren. Laut Turing lässt sich dieser Einwand auf die grundlegende Behauptung reduzieren, dass eine „Maschine uns niemals 'überraschen' kann” [1].

Für Turing liegt das Problem jedoch weniger in der vermeintlichen Einfallslosigkeit des Computers, als vielmehr in der Erwartungshaltung an ihn. Er weist darauf hin, dass es fairer sei, die Programmierfähigkeit des Computers mit derjenigen eines Kindes zu vergleichen, anstatt einen voll entwickelten menschlichen Verstand vorauszusetzen. Ausgehend vom weitgehend unreifen Zustand des kindlichen Geistes müsse man den gesamten Bildungsprozess berücksichtigen [2]. Dieser kann als eine Form des Lernens gesehen werden, ein Prozess, der es möglich macht „einer Maschine mittels Strafe und Belohnung beizubringen, Befehle, die durch Sprache ausgedrückt sind, z.B. durch Symbole zu befolgen” [3]. Die archaische Erziehungsmethode aus Belohnen und Bestrafen reicht also alleine nicht aus, um der Maschine etwas beizubringen. Die Entwicklung künstlicher Intelligenz hängt letztlich von einer geeigneten Programmiersprache ab, die eine „wechselseitige Kommunikation zwischen Lehrer und Schüler” erlaubt [4].

Alan Turing Memorial im Sackville Park in Manchester, England | © philcurtis | pixabay.com

Turing's Vision lernender Maschinen löste eine lange Suche nach künstlicher Intelligenz aus, die bis zu den heutigen neuronalen Netzwerken reicht. Um zu lernen, bilden diese Netzwerke, die nach dem Vorbild des (menschlichen) Gehirns modelliert sind, ein allgemeines Programm mit veränderbaren Parametern. Wie bei der Erziehung von Kindern werden die Parameter so lange angepasst, bis sie das bestmögliche Ergebnis liefern. Diese durchaus zweifelhafte Pädagogik verweist auf ein zentrales Problem bei der Modellierung künstlicher Intelligenz: Wie jede/r Maschinenlehrer/in bestätigen wird, lernen künstlich neuronale Netzwerke anhand der Eigenschaften des ihnen beigebrachten Datensatzes. Dieser ist selbst wiederum das Produkt einer Vielzahl an Arbeitsschritten, die von der Generierung über die Bereinigung der Daten, bis hin zur Auswahl spezifischer Merkmale innerhalb des Datensatzes reichen. Der Lernprozess beinhaltet also ein implizites Wissen, das sich aus den Grundannahmen einzelner (oder mehrerer) Programmierer/innen speist. Der erzielte Output hängt unmittelbar vom Input ab und führt nicht selten zu einer Bestätigung dessen, was von vornherein über den jeweiligen Datensatz angenommen wurde.

Hierbei handelt es sich um einen bekannten Effekt im maschinellen Lernen, der als 'over-fitting' bezeichnet wird: Netzwerke, die versuchen, die Welt um sich herum zu verstehen, bestätigen die Daten, mit denen sie trainiert wurden. Nun sind Daten nie neutral, sondern in ihnen stecken dieselben Vorurteile wie in den Gesellschaften, die sie hervorbringen. Algorithmen des maschinellen Lernens werden daher ständig mit stereotypen Vorstellungen gefüttert, die unsere Alltagskultur widerspiegeln. So haben künstliche neuronale Netzwerke, die auf einem Lernalgorithmus namens Backpropagation beruhen und – ganz im Sinne Turings – ein Belohnungs- und Bestrafungssystem zur Selbstoptimierung verwenden, unter anderem signifikante Fortschritte in der Bilderkennung erzielt, indem sie lernten bestimmte Muster aus einem Datensatz von Millionen von Bildern zu filtern [5]. Allerdings sind diese Bilder selbst wieder Ergebnis einer menschlichen Auswahl und Aufbereitung, wodurch Stereotype weitergetragen werden [6]. Was wir diesen Algorithmen beibringen, reflektiert letztlich unser kollektives Selbst, und so ist es kaum verwunderlich, wenn künstliche neuronale Netze gelernt haben, aufgrund jahrhunderteralter Vorurteile zu diskriminieren [7].

 

 

Endnoten:

[1] Siehe Alan Turing: „Computing Machinery and Intelligence”, in: Mind, Vol. 49 (1950): 433-46. Übersetzt als „Computermachinerie und Intelligenz”, in: Karin Bruns, Ramón Reichert (Hg.): Reader Neue Medien (Bielefeld: transcript, 2007), 37-64. Hier: 54.

[2] Turing behauptet allerdings auch, dass das Unterrichten einer solchen Maschine nicht dasselbe sein kann wie das Unterrichten eines Kindes. So fehlen der Maschine Beine und Augen, die notwendig sind eigene Erfahrungen in der Welt zu machen. Mit neuen Entwicklungen in der Robotik ist dies nun aber möglich geworden.

[3] Siehe Turing (2007): 61.

[4] Ibid.

[5] Backpropagation, der als treibende Kraft für sogenanntes ›deep leaning‹ gilt, ist eine rekursive Technik und stammt aus den 1980er Jahren. Siehe David E. Rumelhart, Geoffrey E. Hinton, Ronald J. Williams: „Learning representations by back-propagating errors”, in: Nature, Vol. 323 (1986): 533-536.

[6] Dies gilt insbesondere für Verfahren des 'supervised learnings'. Aber auch beim unbeaufsichtigten Lernen, wenn also Netzwerke aus Daten eigenständig Klassifizierungen generieren, sind die Lernalgorithmen letztlich auf bestimmte, zuvor festgelegte Ziele ausgerichtet.

[7] Siehe hierzu Clemens Apprich, Wendy Hui Kyong Chun, Florian Cramer, Hito Steyerl: Pattern Disrimination (Lüneburg/Minneapolis: meson press/University of Minnesota Press, 2019).

Ein Beitrag von
Dr. Clemens Apprich
Leuphana Universität Lüneburg