Intelligente Maschinen als moralische Akteure

Stephen Hawking sagte kurz vor seinem Tod: „Ein Erfolg bei der Entwicklung echter KI könnte das außergewöhnlichste Ereignis in der Geschichte der Menschheit sein. Aber auch die größte Katastrophe.“ Hier kommt die Sorge zum Ausdruck, dass Maschinen mit Hilfe von KI selbstständig werden und den Menschen in seiner Existenz bedrohen oder gar komplett ersetzen könnten. Noch wissen wir es nicht. Aber Maschinen werden bereits immer komplexer und autonomer. Sie breiten sich zunehmend in unserer Lebenswelt aus: Kampfroboter, selbstfahrende Autos oder Pflegeroboter sind nur einige Beispiele.

Wie unterschiedlich diese auch sein mögen, sie haben doch eines gemeinsam: KI soll Aufgaben des Menschen übernehmen und möglichst autonom ausführen. Und so ist es wohl nur eine Frage der Zeit: KI wird über kurz oder lang Entscheidungen fällen müssen, die unsere moralischen Werte und Überzeugungen auf die Probe stellen. Hier drängt sich zunächst die Frage auf, ob Maschinen alle Aufgaben übernehmen sollten, die sie potenziell übernehmen könnten.

Sister Pepper | Filmstill „Hi, AI" | Dokumentarfilm 2019 von Isa Willinger | © www.hiai-film.de

Wo liegt die Grenze für das, was man einer Maschine guten Gewissens überlassen kann? Darf eine Maschine Alte und Kranke pflegen? Darf KI juristische oder politische Entscheidungen fällen? Oder sollte sie nur Aufgaben übernehmen, die für Menschen ohnehin langweilig, anstrengend oder gar gefährlich sind – Stichwort: autonome Waffensysteme? Klar ist: Die Antworten haben weitreichende Konsequenzen auf das Privatleben, das Wohlergehen der Gesamtgesellschaft und den Arbeitsmarkt. Mit der Verbreitung von KI-basierten Maschinen rückt jedoch besonders eine Frage immer wieder ins Zentrum gesellschaftlicher Debatten: Sind Roboter in der Lage, selbstständig moralische Probleme zu lösen?

Die Notwendigkeit einer Maschinenethik

Unabhängig von den Grenzen des technisch Möglichen muss auch die moralische Grenze der Automatisierung unterschiedlicher Aufgaben berücksichtigt werden. Dabei geht es um die Frage, ob und unter welchen Bedingungen Roboter moralische Probleme bewältigen können, denen sie sich in der Praxis ausgesetzt sehen könnten. Dieser Frage widmet sich die Maschinenethik.

Bis heute neigen Philosophen und Ingenieure zu einer leichtfertigen Antwort: Maschinen gelten als komplexe Werkzeuge. Ihre Entscheidungen legt die Programmierung fest. Sie besitzen qua Design keinen freien Willen, kein Bewusstsein und keinen moralischen Kompass. Mit zunehmender Autonomie wird die Werkzeugmetapher jedoch immer weniger überzeugend. Wenn technische Systeme immer weitreichendere Aufgaben übernehmen, begegnen sie immer komplexeren Situationen. Und so steigt die Wahrscheinlichkeit, dass sie mit Situationen konfrontiert werden, die wir nicht programmieren können. Oder sie kommen in Situationen, die sich nicht im Vorhinein durch einfache Regeln lösen lassen, weil sie auch für einen Menschen ein moralisches Dilemma darstellen.

Um die Frage der Maschinenethik beantworten zu können, müssen wir als selbstverständlich erachtete Überzeugungen überdenken. Wir müssen in Erwägung ziehen, ob es nicht neben einer am Menschen ausgerichteten Ethik auch einer Ethik für Maschinen bedarf, die vom menschlichen Nutzer unabhängig agieren kann. Diese Erwägungen stellen unser Menschenbild ebenso in Frage, wie unsere Vorstellungen von Moral und Ethik: Ist es möglich, dass Maschinen als Akteure in Frage kommen? Was ist Moral? Und welche Rolle spielen Bewusstsein und Emotionen für moralisches Entscheiden?

Künstliche Intelligenz hat das Potenzial, alles zu verändern

Künstliche Intelligenz ist in diesem Zusammenhang ein Schlüsselbegriff: Mit der Entwicklung moderner KI stellen sich die genannten Fragen vor einem neuen Hintergrund. KI ist heute nicht nur in der Lage, Bilder und gesprochene Sprache zu erkennen, sondern kann auch selbst Sprache, Musik und Kunst generieren. Maschinen lernen zu laufen, können kochen und hochkomplexe Spiele auf einem Niveau spielen, das menschliches Können übersteigt. Bots können bluffen, lügen und Fake-News schreiben und verbreiten; Algorithmen können rassistisch, sexistisch oder feministisch sein. So nehmen Menschen mal die unheimliche Aura, mal die vertrauenerweckende Erscheinung oder die als angenehm empfundene Nähe der Maschinen wahr. Sie akzeptieren sie als Gegenspieler oder vertrauen auf ihr Urteil in medizinischen Fragen. Und schließlich impliziert unsere Rede vom autonomen Fahrzeug bereits jetzt die Vorstellung von der intelligenten Maschine als eigenständigem Akteur. Dabei verschwimmt langsam die Grenze zwischen der angemessenen und der irreführenden Redeweise. Und dennoch zögern wir nach wie vor keinen Augenblick, einer Maschine Bewusstsein, Empathie, freien Willen und Verantwortung besonders dann abzusprechen, wenn es um Entscheidungen geht, die sich auf das Wohlergehen unserer Mitmenschen auswirken könnten.

Mädchen mit Roboter | © unsplash.com | Foto: Andy Kelly (@askkell)

Wenn wir die Überwindung der Werkzeugmetapher jedoch akzeptieren und Maschinen als Akteure im weitesten Sinne anerkennen, wird die maschinenethische Frage virulent: Wie und unter welchen Umständen können intelligente Maschinen zu (guten) moralischen Akteuren werden?

In der Bewertung dieses Übergangs vom tatsächlich beobachtbaren Verhalten der Maschine zur Zuschreibung einer moralischen Kompetenz liegt die große Herausforderung der Maschinenethik. Dabei stößt die philosophische Debatte über künstliche moralische Akteure immer wieder an Grenzen, die aus der Anthropologie, also der Lehre vom Wesen des Menschen, seit jeher bekannt sind: Was ist Bewusstsein? Wie verbindet sich unser bewusstes Erleben mit unseren physischen Handlungen, so dass aus Entscheidungen reale Konsequenzen entstehen?

Filmtrailer Hi, AI – Liebesgeschichten aus der Zukunft

Es ist unerlässlich, dass die Frage nach den Bedingungen künstlicher moralischer Akteure beantwortet wird. Erst wenn sie mit Blick auf den Stand der Technik sowie dessen positive und negative Potenziale beantwortet ist, können wir angeben, welche Aufgaben eine Maschine in der Gesellschaft oder im Alltag des Menschen übernehmen sollte. Nur so lässt sich vermeiden, dass die Entwicklung künstlicher Intelligenz zur größten Katastrophe in der Geschichte der Menschheit wird.

Autor des Beitrags
Lukas Brand
Ruhr-Universität Bochum
Doktorand am Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie

T

T