KI – ein Produkt des 21. Jahrhunderts?
17. Januar 2019 | Philipp Schelske
Künstliche Intelligenz ist omnipräsent: in der Tagespresse und Fachmagazinen, in der cineastischen Popkultur, wie beispielsweise in Kinofilmen wie „Iron Man“, im Haushalt wie beispielsweise in mithörenden und -lernenden Helfern wie Amazons Alexa oder Googles Echo Dot, oder auch in der Unterhaltungsliteratur, z. B. Mark Uwe Klings digitale Dystopie „Qualityland“ oder Richard David Prechts vermeintlich überfällige Warnung vor drohenden Wellen der Arbeitslosigkeit und maschineller Substitution in seinem (nach gewohnter Precht-Manier) eher leicht verdaulichen Roman „Jäger, Hirten, Kritiker“.
Und auch die Bundesregierung nimmt sich im Wissenschaftsjahr 2019 des Themas „Künstliche Intelligenz“ an und hat insgesamt 3 Milliarden Euro Fördermittel ausgeschrieben, mit denen die deutsche Wirtschaft zum Weltmarktführer im Bereich KI werden soll. Die Summe wirkt jedoch neben den chinesischen Investitionen im dreistelligen Milliardenbereich nicht ausreichend. Wir stellen die Frage: Ist Künstliche Intelligenz die Revolution des 21. Jahrhunderts, als die sie derzeit präsentiert wird oder ist sie nur ein neuer Hype, basierend auf altbekannter Technologie? Wir versuchen, uns der Antwort auf diese Frage in diesem Blog-Beitrag zu nähern.
Am Anfang war das Hirn: Wie alles begann…
Wenn man zu verstehen versucht, wie umfassend und vielschichtig ein Thema ist, muss man unweigerlich in Erfahrung bringen, wo und wann ein Thema seinen Ursprung hat. Die Reduzierung von Komplexität hilft dem späteren Verständnis.
Um sich dem Thema KI entsprechend nähern zu können, muss man zunächst erfahren: KI ist kein neues Thema. Also zurück zum Ursprung – am Anfang war das Hirn: Bereits in den 30er und 40er Jahren des 20. Jahrhunderts war sich die Wissenschaft bewusst, dass das menschliche Hirn Informationen mithilfe von Neuronen vermittelt, die durch Synapsen miteinander verbunden sind: ein gigantisches, biologisches, neuronales Netzwerk.
Diese Erkenntnis diente als Inspiration, die biologische Vorlage technisch nachzubilden. Im Jahr 1950 veröffentlichte Alan Turing eine theoretische Abhandlung mit dem Titel „Computing Machinery and Intelligence”. Er beschrieb darin die Schwierigkeit, den Begriff Intelligenz selbst zu definieren, sowie intelligentes Verhalten des Menschen und der Maschine zu trennen – ohne diese Zusammenhänge in der Praxis näher erforschen zu können. Um zu prüfen, ob maschinelle Intelligenz den Grad menschlicher Intelligenz jemals erreichen könnte, entwickelte er ein Verfahren, welches später als der „Turing-Test“ bekannt werden sollte. Beim „Turing-Test“ kommuniziert ein Mensch mit zwei ihm nicht bekannten Entitäten: einem Menschen und einer Maschine. Ist die Testperson nach der Konversation nicht in der Lage, die Kommunikationspartner eindeutig zuzuordnen, ist damit der Grad menschlicher Intelligenz bei einer Maschine nachgewiesen. Bis heute wurde der Test nicht erfolgreich absolviert. Die Arbeit Turings gilt bis heute als bahnbrechende und visionäre Pionierleistung und ist hauptverantwortlich für die andauernde intensive wissenschaftliche Auseinandersetzung mit den Möglichkeiten und Anwendungsfeldern neuronaler Netze.
Obwohl Turing mit seiner Arbeit den Grundstein für das Forschungsgebiet legte, wurde der Begriff künstliche Intelligenz erst 5 Jahre später definiert. John McCarthy verwendete den Ausdruck erstmals in seinem Antrag für das „Dartmouth Summer Research Project on Artificial Intelligence”. Der Workshop war eine Einladung an Wissenschaftler, ihre Ideen rund um das Thema selbstständig denkender Maschinen gemeinsam zu konkretisieren. Die „Dartmouth Conference“ abgekürzte Versammlung im Sommer 1956 wurde zum offiziellen Geburtsort des Forschungsgebiets „Künstliche Intelligenz“.
Goldrauschstimmung: Die Entstehung erster KI-Programme
Was folgte, waren die ersten praktischen Entwicklungen und Arbeiten im Bereich der künstlichen Intelligenz. Zwischen den Jahren 1956 und 1974 erfuhr das Forschungsgebiet einen regelrechten Hype, seine größte bisher da gewesene Blütezeit: Frank Rosenblatt erfand das Perceptron (1958), welches als Vorläufer der heutigen neuronalen Netze gilt und bereits in der damaligen Zeit selbstständige Bilderkennung einfacher Muster durchführen konnte. Neben dem Perceptron wurden auch die ersten KI-Spiele entwickelt – unter anderem MacHack (1966). Der Computer, auf dem MacHack lief, wurde von der United States Chess Federation als Ehrenmitglied aufgenommen, was die Voraussetzung dafür war, an offiziellen Schachturnieren teilnehmen zu können. Obwohl MacHack noch weit davon entfernt war, es mit Profis aufzunehmen, konnte die KI bereits vereinzelt Spiele gegen Amateure gewinnen. Das Programm fußte auf dem Schachwissen seines Entwicklers, Richard Greenblatt, welches er in Form von 50 Heuristiken festgehalten hatte (Quelle: https://de.wikipedia.org/wiki/MacHack).
Neben der Interpretation von visuellen Eindrücken ist die freie und interaktive Kommunikation eine essentielle menschliche Fähigkeit. Mit ELIZA (1966) wurde die erste Software erschaffen, welche in der Lage war, eine englischsprachige Konversation zu führen. ELIZA war darüber hinaus auch eines der ersten Programme, das den Turing-Test durchlief – und scheiterte. Der allgemein eher unkomplizierte Fortschritt und die schnellen Erfolge sorgten für ein umfassendes Vertrauen gegenüber der Wissenschaft, künstliche Intelligenz zu erschaffen. Marvin Minsky, einer der führenden Forscher auf dem Gebiet, verkündete bereits im Jahr 1970, es brauche nur noch drei bis acht Jahre, bis es eine Maschine gäbe, deren Intelligenz dem Mensch ebenbürtig sei. Im Nachhinein wird diese Aussage jedoch als eher übermäßig ambitioniert interpretiert. (Quelle: LIFE)
Katerstimmung: Künstliche Intelligenz im Winterschlaf
Obwohl die Anfänge vielversprechend waren, blieb der Erfolg eines echten Durchbruchs in Form einer vollumfänglichen Künstlichen Intelligenz aus. Mitte der 80er Jahre zogen sich schließlich viele der einstigen Geldgeber zurück und stellten ihre Bemühungen aufgrund der mangelnden kommerziellen Nutzbarkeit damaliger Künstlicher Intelligenz ein.
Zwei der größten Hindernisse für erfolgreiche Projekte waren die Speicherkapazitäten und Rechenleistungen damaliger Computersysteme. Ein weiteres Problem war ein Wechsel an der Führungsspitze der DARPA, der Defense Advanced Research Project Agency, einem Forschungszweig des US-Militärs. Während der 60er und 70er Jahre hatte die DARPA Millionenbeträge für die Grundlagenforschung im Bereich von „Artificial Intelligence“ bereitgestellt. Die wissenschaftliche Ausrichtung von DARPA wechselte mit der Führung: eine Abwendung von der Grundlagenforschung, eine Zuwendung zu zielgerichteter Projektforschung.
Die Schwierigkeit, Forschungsgelder aus dem Bereich der Wirtschaft zu beschaffen und der Umstand, dass DARPA sich von Wissenschaftlern in die Irre geführt fühlte, welche dem US-Militär ein Programm zugesagt hatten, das über eine englische Spracherkennung verfügen und interaktiv auf die Eingaben reagieren können sollte, dazu jedoch nicht in der Lage war, läutete nach daraufhin ausbleibender Unterstützung durch DARPA 1974 den Beginn des ersten sogenannten „KI-Winters“ ein. (Quelle: https://en.wikipedia.org/wiki/AI_winter#The_setbacks_of_1974).
Eine der ersten praktischen, kommerziellen Anwendungen eines KI-Programmes erlebte das Forschungsgebiet im Jahr 1980 mit der Software XCON (eXpert CONfigurer). Damals wurden Computer noch nicht als Gesamtpaket verkauft. Es bedurfte der händischen Auswahl aller Komponenten einschließlich rudimentärer Bauteile wie Kabel und oder auch essentieller Bestandteile wie einzelner Platinen. Menschliche Kundenbetreuer machten bei der Auswahl und Zusammenstellung jedoch zu oft Fehler und wählten nicht zusammenpassende Komponenten aus, was zu kostspieliegen Rücklaufquoten führte. XCON war in der Lage, die korrekten Komponenten anhand der Anforderungen des Kunden zusammenzustellen und half somit Schätzungen zufolge, mehrere Millionen US-Dollar an Reklamationskosten einzusparen. (Quelle: https://en.wikipedia.org/wiki/Xcon).
XCON war ein sogenanntes Expertensystem, das versuchte Fragen und Probleme anhand eines vordefinierten Regelwerks zu beantworten. Dabei beschränkten sich die Erschaffer oft auf einzelne Aufgabengebiete, wie z.B. die korrekte Auswahl von Computerhardware. Obwohl Projekte wie XCON vielversprechende Ansätze lieferten, blieben die Ergebnisse wie bisher hinter den Erwartungen zurück. Die Programme waren selten in der Lage, ausgefallenere Fragestellungen korrekt zu verarbeiten, was zu Fehlfunktionen führte. Auch konnten die Systeme nicht selbstständig lernen, sondern ihr Regelwerk musste manuell erweitert werden, was mit Zunahme der zu verarbeitenden Datenmengen zu massiven Ressourcenproblemen führte. Aufgrund mangelnder Ergebnisse zogen sich erneut viele Geldgeber aus dem Forschungsgebiet zurück. Es folgte der zweite KI-Winter.
KI in der Neuzeit
Während das Forschungsgebiet der künstlichen Intelligenz wenig neue Publikationen und Erkenntnisse hervorbrachte, machten verwandte und für die Weiterentwicklung von KI ebenso relevante Gebiete immense Fortschritte. Zwischen 1990 und 2010 wurden Rechenleistung und Speicherkapazität immer günstiger. Eine Auswirkung, die unweigerlich auch KI miteinbezog: Deep Blue, IBMs Schachroboter, schlug 1996 den damaligen menschlichen Schach-Weltmeister Garri Kasparow in einer einzigen Partie, 1996 sogar in einem gesamten Schach-Wettkampf aus sechs Partien und unter damaligen Turnierbedingungen. (Quelle: https://de.wikipedia.org/wiki/Deep_Blue). Zurück aus dem Winterschlaf war das Thema KI plötzlich wieder präsent. Vierzehn Jahre später, im Jahr 2011, sorgte IBM erneut für Aufsehen: Das KI-System Watson schlug in der TV-Show Jeopardy die damaligen menschlichen Champions. Dabei demonstrierte Watson das Verstehen von natürlicher Sprache sowie das Schlussfolgern auf Grundlage von Informationen (Quelle: https://www.zeit.de/digital/internet/supercomputer-watson-jeopardy). Eine japanische Versicherung ersetzte 30 seiner Angestellten im Januar 2017 durch Watson – das Programm analysiert und interpretiert seitdem eingehende Schadensfälle und bewertet sie.
Neben dem Programm Watson wurde in den letzten Jahren auch der Begriff „Deep Learning” zunehmend populärer. Dieser beschreibt eine weitere Forschungsdisziplin im Kosmos um das Themenfeld der neuronalen Netze. Neuronale Netze schlugen 2011 zum ersten Mal den Menschen bei der Erkennung von Bildern und schufen damit das Initialmomentum für neues, umfassendes Interesse an der Technologie – von der Wirtschaft bis zur Politik. Im Unterschied zu ersten Hype-Phasen haben wir heutzutage, vor allem durch Cloud Computing, Zugriff auf kostengünstige und zugleich extrem leistungsfähige Rechenleistung und durch die Verbreitung der stetig weiter zunehmenden Individualnutzung des Internets einen kontinuierlichen Strom an neuen Daten. Durch die umfängliche Auswertung dieser Daten unter Zuhilfenahme der entsprechenden Rechenleistung, wird „Deep Learning“ erst ermöglicht: Maschinen lernen selbstständig und erweitern ihr Wissen anhand eigener Interpretationen der Daten hinsichtlich von Schwerpunkt- oder Clusterbildungen innerhalb des Dateninputs. Sie sollen später in der Lage sein, dieses Wissen selbstständig anwenden zu können – was bisher jedoch noch nicht erfolgreich erprobt werden konnte.
Auch die Prognosen interessierter und teilweise bereits beteiligter Konzerne fallen, angesichts der aussichtsreichen Entwicklungen im Forschungsfeld der Künstlichen Intelligenz, positiv aus. Google, Facebook, Apple und Microsoft investieren jährlich Millionenbeträge in die Forschung und Entwicklung von KI-basierter Software und integrieren KI in fast alle ihre Produkte. Auch die chinesischen Riesen Baidu, Tencent und Alibaba haben nachgezogen und sind mittlerweile auf gleichem, teilweise höherem Niveau. Obwohl KI mittlerweile über ein halbes Jahrhundert alt ist und bereits viele Höhen und Tiefen erlebt hat, setzt sie sich erst jetzt in ersten Zügen im kommerziellen Markt durch. Aus dem über 60 Jahre alten Forschungsgebiet ist tatsächlich ein Produkt des 21. Jahrhunderts geworden – mit unfassbarem Zukunftspotenzial.

Hannover