Künstliche Intelligenz an die Macht? Bloß nicht!
22. März 2019 | Dr. Manuela Lenzen
„Wir sind überzeugt, dass Watsons einzigartige Fähigkeiten, auf Informationen zuzugreifen und informierte und transparente Entscheidungen zu treffen, ihn zu einem idealen Kandidaten für die Anforderungen machen, die sich einem Präsidenten stellen”: Damit warb die „Watson 2016 Foundation” für ihren Kandidaten für die letzte US-Präsidentschaftswahl. Auch Zoltan Istvan, Kandidat der Transhumanisten in diesem Wahlkampf, sprach sich dafür aus, Algorithmen an die Macht zu lassen.
In der Tat: Menschen fehlt nicht nur bisweilen die Übersicht, manchmal entscheiden manche von ihnen eher auf der Basis von Ärger, Hass, Größenwahn, Habgier oder Selbstverliebtheit als mit Rücksicht auf das allgemeine Wohl. Könnte ein Computer das nicht besser? Der Master-Algorithmus, den zu programmieren das letzte Problem sei, das die Menschheit zu lösen hat, bevor sich alle ihre anderen Probleme von selbst lösen?
Zumindest einen Versuch, Computern die Wirtschaftspolitik zu überlassen, gab es bereits. Zu Beginn der 1970er Jahre plante die Regierung Chiles, die Wirtschaft mithilfe eines Netzes aus 400 Fernschreibern, die mit einem zentralen Computer in der Hauptstadt verbunden waren, in Echtzeit zu überwachen und zu steuern.
Die Fernschreiber erwiesen sich durchaus als nützliche Kommunikationsgeräte, doch das Projekt „Cybersyn” wurde nie fertiggestellt. Im Rückblick krankte der Ansatz zumindest an einer naiven Unterschätzung der für ein solches Unternehmen nötigen Rechenkapazität. Planwirtschaft ohne Computerbeteiligung hat die betroffenen Gesellschaften ebenfalls regelmäßig verarmen lassen. Wäre heute, im Zeitalter der Superrechner, eine globale computergesteuerte Planwirtschaft denkbar? Eine rationale Ökonomie, die verhinderte, dass die einen große Teile ihrer Nahrungsmittel wegwerfen, während die anderen hungern? Eine ressourcenschonende Ökonomie, die dafür sorgt, dass bestimmte Parameter – Bevölkerungswachstum, Energieverbrauch, Flächenverbrauch, Schadstoffausstoß – in einem Rahmen bleiben, der die Erde dauerhaft bewohnbar bleiben lässt? Könnten wir einem mächtigen Programm die Aufgabe stellen, die Welt nachhaltig zu verwalten, und es fände selbst heraus, wie es das anstellen muss?
Wir können unsere Moral, unsere Werte, unsere Präferenzen nicht ein für alle Mal ausbuchstabieren …
Eher nicht. Zum einen fehlt der für ein Unternehmen dieser Dimension nötige Supersuper-Rechner. Dann benötigte ein solches System eine riesige Menge guter, verlässlicher Trainingsdaten und es ist nicht zu erkennen, wo diese herkommen sollten. Zudem geht es nicht nur um Umweltparameter, sondern auch um menschliches Handeln. Derzeit arbeiten Forscher*innen an Programmen zur Früherkennung von Krisen wie Pandemien oder Kriegen oder an der Simulation der Auswirkungen politischer Entscheidungen. Schon diese Projekte erweisen sich als alles andere als trivial und kommen noch lange nicht ohne den Blick eines*einer menschlichen Expert*innen auf die Situation aus.
Lernende Programme nehmen die Theorien der Gegenwart und die Daten der Vergangenheit, extrahieren Muster und generieren daraus zukünftige Szenarien, die mit einer gewissen Wahrscheinlichkeit eintreten können. Doch wir müssen prüfen, ob die gefundenen Muster relevant sind, wir müssen entscheiden, worauf es uns ankommt und wohin sich die Gesellschaft entwickeln soll. Und das werden wir nie im Voraus mit ausreichender Präzision in Regeln festlegen können.
Wir können unsere Moral, unsere Werte, unsere Präferenzen nicht ein für alle Mal ausbuchstabieren. Nicht nur, weil die Welt sich verändert oder weil sie komplex ist, sondern, weil wir uns auch selbst verändern und nicht durchsichtig sind. Wir können nicht im Voraus sagen, was es im Einzelfall heißen wird, die Menschenwürde oder die Verhältnismäßigkeit zu wahren, wann wir Strenge, wann Großmut und Verzeihen für angemessen halten. Dass unsere moralischen Regeln – „Was du nicht willst, das man dir tu…“ – so unspezifisch sind, ist kein Systemfehler. Das gilt auch für die oft komplexen und langwierigen Gerichtsverfahren. Computer können mit Unschärfe nichts anfangen. Doch in der Politik, im Recht, im Zwischenmenschlichen ist Unschärfe kein Mangel, sondern schafft Platz für nötige Abwägung. Dabei arbeiten wir keineswegs ohne Netz und doppelten Boden. Was uns an Durchsichtigkeit mangelt, gleichen wir durch diejenigen Fähigkeiten aus, die uns zu Menschen machen: Gewissen und Mitgefühl zum Beispiel.
Wir werden nie genau genug wünschen können …
Mit der KI ist es ein bisschen wie mit dem Sams, diesem Wesen mit den roten Haaren, der Rüsselnase und den blauen Wunschpunkten aus der Geschichte von Paul Maar. Für jeden Punkt im Gesicht des Sams kann Herr Taschenbier, der das Wesen gefunden hat, sich etwas wünschen. Dabei passieren ständig kleinere und größere Katastrophen. Du musst eben genauer wünschen, sagt dann das Sams. Ein Schelm, wer dabei an Alice und Bob denkt, die Chatbots, die in einem Labor von Facebook anfingen, in einem eigenen Code zu verhandeln, weil die Programmierer*innen vergessen hatten, ihnen mitzugeben, dass sie beim üblichen Englisch bleiben müssten. Wir werden nie genau genug wünschen können, um einen Master-Algorithmus zu bekommen, mit dem wir leben wollten. Eine menschliche Welt muss immer wieder neu verhandelbar bleiben.
Viele Unternehmen versuchen, ihre Entscheidungen mithilfe von lernenden Algorithmen zu optimieren: IBM benutzt Algorithmen, um zu beurteilen, welche Firmen sie zukaufen wollen. Netflix benutzt Predictive Analytics, um zu entscheiden, welche Serien produziert werden. Algorithmen berechnen für Warenhausketten, wo es sich lohnt, eine neue Filiale zu eröffnen, und auch Unternehmensberatungen interessieren sich zunehmend für strategisch planende Software.
Unternehmensberater*innen warnen aber auch vor den Tücken einer solchen durchgehenden Digitalisierung: Wenn eine komplexe Software-Maschinerie einmal läuft, neigt sie dazu, statisch zu werden. Dann bestimmen die Fähigkeiten der Programme, welche Probleme angegangen werden, andere kommen gar nicht erst in den Blick. Statt dass ein Programm hilft, eine komplexe Situation zu meistern, wird im schlimmsten Fall die Situation so zurechtgebogen, dass ein Programm damit umgehen kann. Auf absehbare Zeit und vielleicht sogar grundsätzlich, wird strategische Planung ohne menschliche Beteiligung nicht gelingen.