Was kann KI heute? Einige Beispiele
8. Februar 2019 | Kevin Raetz
(Humanoide) Roboter
In Filmen und Romanen werden Roboter oft als menschengleiche Supermaschinen dargestellt und stehen sinnbildlich für „Künstliche Intelligenz“. Doch in der Robotik geht es in erster Linie um intelligente, mobile Robotersysteme. Roboter also die als Helfer im Alltag, als Spezialisten für besonders gesundheitsgefährdende Einsatzzwecke und -gebiete oder beispielsweise als erste „Besucher“ auf dem Mars eingesetzt werden. Und tatsächlich ist dieses Fachgebiet eines der attraktivsten Forschungsfelder von KI. An den Universitäten in Göttingen, Osnabrück, Oldenburg, Braunschweig und Hannover beschäftigen sich eigene Studiengänge mit dem Thema. Die Roboterbausätze von Lego für Grundschüler*innen beweisen, wie attraktiv sich bewegende Maschinen nicht nur für Wissenschaftler sind.
Im Internet findet man aber natürlich auch Beispiele für die Entwicklung humanoider Roboter u.a. für das Militär. Die US-amerikanische Firma „Boston Dynamics“ ist einer der Vorreiter in diesem Bereich. Ihr Humanoid-Roboter „ATLAS“ ist derzeit der neueste Stand der Entwicklung. ATLAS ist in der Lage Hindernisse zu erkennen, ihre Abmessungen einzuschätzen und sie daraufhin selbstständig zu überwinden, während er dabei das Gleichgewicht behält. Die Bewegungen werden von Menschen programmiert und von einer KI je nach Parcours mit angepasster Geschwindigkeit und Krafteinsatz angewendet.
ATLAS der humanoide Roboter der Firma Boston Dynamics
Lokalisierung und Separation von Tönen aus Videos
In dem Projekt „Sound of Pixels“ ist es gelungen, mithilfe einer KI einzelne Audio-Informationen ihrer jeweiligen räumlichen Position in einem Video zuzuordnen. Vereinfacht gesagt hat die KI hierzu eine „Karte“ des Videos erstellt: Pixel für Pixel wurde festgelegt, was sich an dieser Stelle befindet – Raum, Hocker, Mensch, Gitarre, Cello, usw. Daraufhin wurden die Tonquellen identifiziert. So konnte jede Tonspur jedes Instruments entsprechend ihrer räumlichen Lokalisierung aus dem Video separiert werden. Die Entwickler*innen erstellten daraufhin eine interaktive Demo, bei der man sich als Nutzer*in nun genau diese einzelnen Tonspuren anhören kann – vollkommen unabhängig von der ersten, gemeinsamen Gesamtaufnahme.
Stellen sie sich ein Orchester beim Proben vor – nur, dass jeder einzelne Musiker im Anschluss zu Hause für sich seine Tonspur anhören kann, um etwaige Fehler zu verbessern und dann der Reihe nach die einzelnen Instrumente „dazuschaltet“, die für strukturiertes Lernen notwendig sind. Noch wesentlich hilfreicher kann diese Technik für die Nachbearbeitung von Tonaufnahmen sein. Störgeräusche können eliminiert und einzelne Musikstränge in Tonlage oder Tempo „manipuliert“ werden.
Sprachgenerierung (Text to Speech)
Denken wir an künstlich generierte Sprache, assoziieren wir oft Siri und mechanisch klingende Stimmen. Doch auch bei der Generierung von Sprache konnte in den letzten Jahren ein enormer Fortschritt verzeichnet werden. 2016 stellte Google das sogenannte WaveNet vor, das eine beachtliche Verbesserung zur herkömmlichen Qualität erzielte. Ein beliebiger Text wird von einer menschlich-anmutenden Stimme vorgelesen. Hier war jedoch noch klar herauszuhören, dass es sich nicht um natürliche Sprache handelte. Bereits 2018 kam mit dem Tacotron 2 ein neuer Ansatz auf den Markt, der kaum noch vom Menschen zu unterscheiden ist.
In manchen Beispielen hört man noch geringe künstliche Qualitäten, bei anderen ist jedoch kein Unterschied zu natürlicher Sprache wahrzunehmen. Diese künstlichen Stimmen können authentisch Kundentermine beim Friseur vereinbaren wie im Falle von Google Duplex oder Menschen mit Einschränkungen eine Stimme verleihen. Wir können also erwarten, dass Siri, Google Assistant, Alexa und Co. uns in Zukunft immer menschlicher begrüßen werden.
KI im Marketing
Auch Marken wissen KI heute einzusetzen: Amazon, eBay oder auch Otto studieren unser Suchverhalten und unserer Einkäufe im Netz und empfehlen uns auf ihren Plattformen weitere Artikel, die uns gefallen könnten. Einzig die Logik, nach der Suche und dem Kauf von Gummistiefeln weitere Gummistiefelvorschläge zu erhalten, erschließt sich dem Nutzer*innen oftmals noch nicht. Hier werden wir vielleicht in naher Zukunft eine Anpassung erleben und nach dem Erwerb von Gummistiefeln andere Artikel aus der Kategorie Regenschutz angeboten bekommen.
Ein anderes – weniger digitales – Beispiel ist das Unternehmen Coca-Cola, das KI für die eigene Produkt(weiter)entwicklung nutzt und auf Basis einer Analyse des Kundenverhaltens neue Geschmacksrichtungen entwickelt. Der Getränkehersteller hat dazu die Daten von Getränkestationen, wie sie in den USA beispielsweise bei einschlägigen Fast-Food-Ketten stehen und an denen Kunden ihre Getränke selbst zapfen und mischen können, ausgewertet und auf dieser Erkenntnisgrundlage die Geschmacksrichtungen „Sprite Cherry” und „Sprite Cherry Zero” auf den Markt gebracht. Keine aufwendige Marktforschung anhand teurer Umfragen mehr – es wird lediglich bestehende Technik verwendet, um neue Produktgruppen zu erschließen und den Umsatz zu steigern.
KI in der kreativen Branche
Im nächsten Beispiel geht es um die Methode des Style Transfer. Eine Gruppe von Wissenschaftlern hat das System DiscoGAN entwickelt, das aus einem Referenzbild den Stil und die Farbe extrahiert und auf eine neue Form anwendet. Auf diese Weise werden neue Objekte generiert, die es vorher nicht gab. Hierbei muss die Referenz für den Stil und die Referenz für die Form nicht vom gleichen Typ sein. Aus einem Schuhtyp kann eine Handtasche oder ein Möbelstück werden. Im Projekt TextureGAN werden hingegen Teilstücke eines Musters auf ein Produkt übertragen und weiterentwickelt. So lassen sich Handtaschen, Schuhe oder Kleidungsstücke von dem System in einem bestimmten Design entwerfen. Dieses Tool kann hilfreich sein für professionelle Designer, ist aber natürlich auch für Laien interessant. Veränderungen von Textur und Farbe können in Echtzeit verfolgt werden. Es stellt sich die Frage: Ist dies der Traum oder Albtraum von Designern?
Eine ähnliche Herangehensweise nutzte die Firma IBM. Der US-amerikanische Digitalriese hat im Jahr 2017 im Rahmen des „Mobile World Congress“ in Barcelona sein KI-System „Watson“ mit Werken von Antonio Gaudi gespeist. Auf Grundlage der Informationen lieferte die KI daraufhin Vorschläge, die vom New Yorker Design-Büro „SOFTlab“ umgesetzt wurden. Die eindrucksvollen Kunstwerke wirken wie eine moderne Interpretation Gaudis und dessen besonderen Stils, ohne ihn zu kopieren. Bestimmte Elemente Gaudis, wie etwa das charakteristische Schuppengeflecht, welches sich auf vielen seiner Bauwerke findet, wurde nachempfunden, ebenso wie die Farbgebung. Material und Gestaltung selbst haben aber eine klare, eigene Sprache mit modernen Einflüssen.
Wir dürfen gespannt sein, welche Anwendungen in nächster Zeit entwickelt und vorgestellt werden. Das Potenzial ist nicht mal annähernd ausgeschöpft.
