Künstliche Intelligenz und Diskriminierung – Herausforderungen und Lösungsansätze
20. September 2019 | Plattform Lernende Systeme
Sieben interdisziplinäre und branchenübergreifende Arbeitsgruppen (AG) bilden das Herzstück der Plattform Lernende Systeme. Rund 200 Expertinnen und Experten aus Wissenschaft, Unternehmen unterschiedlicher Größe, Politik und Zivilgesellschaft erörtern dort im regelmäßigen Austausch technologische, wirtschaftliche und gesellschaftliche Fragen, die mit der Entwicklung und Einführung von Lernenden Systemen und Künstlicher Intelligenz verbunden sind. Ihre Ergebnisse stellen sie zusammen mit umsetzungsnahen Empfehlungen der Öffentlichkeit vor.
Die Arbeitsgruppe thematisiert Fragen zur Sicherheit (Security), Zuverlässigkeit (Safety) und zum Umgang mit Privatheit (Privacy) bei der Entwicklung und Anwendung von Lernenden Systemen. Sie analysiert auch damit verbundene rechtliche sowie ethische Anforderungen und steht in engem Austausch mit allen weiteren Arbeitsgruppen.
In dem Whitepaper „Künstliche Intelligenz und Diskriminierung - Herausforderungen und Lösungsansätze” stehen die teilweise wenig objektiven Entscheidungen von Maschinen im Fokus.
Zusammenfassung

Künstliche Intelligenz (KI) wird heute bereits in deutlich mehr Anwendungsfeldern eingesetzt, als auf den ersten Blick vermutet wird. Nicht immer offensichtlich ist das damit verbundene Diskriminierungspotential. Obwohl auch Menschen ungerechtfertigt diskriminieren, erscheinen ihnen Entscheidungen von Computerprogrammen und Softwarelösungen oftmals faktenbasiert, objektiv und neutral. Tatsächlich aber treffen KI-basierte Systeme bisweilen problematische, diskriminierende oder ungerechtfertigt differenzierende Entscheidungen. *1 Softwaresysteme beinhalten vielfach explizit oder implizit gesellschaftliche Regelsysteme und steuern dadurch Verhalten – sei es in Form von Regelungen, von Transaktionen und Koordination oder von Zugangs- und Nutzungsrechten. Vor allem setzen sie Regelsysteme auf technischem Weg effektiv durch. Lernende Systeme bergen somit das Potential, bereits vorhandene Diskriminierungen nicht nur zu übernehmen, sondern sogar zu verschärfen.
So werden beispielsweise in den USA Algorithmen dazu eingesetzt, die Rückfallwahrscheinlichkeit von Angeklagten zu bestimmen. *2 Die Algorithmen ermitteln anhand verschiedener Daten einen Wert, der Richterinnen und Richtern eine Einschätzung darüber geben soll, mit welcher Wahrscheinlichkeit die Angeklagten erneut eine Straftat begehen. Der Algorithmus wird allerdings vor allem mit historischen Daten (z. B. aus Kriminalitätsstatistiken) trainiert, die nicht auf kausalen Zusammenhängen, sondern auf statistischen Korrelationen beruhen. Im Ergebnis erhalten Menschen aus Bevölkerungsgruppen, die in der Vergangenheit häufiger ins Visier der Strafverfolgungsbehörden gerieten (z. B. ethnische Minderheiten oder Gruppen mit schlechteren finanziellen Möglichkeiten), schlechtere Prognosen. Da sich das Urteil der Richterinnen und Richter unter anderem darauf stützt, werden Menschen allein aufgrund ihrer Zugehörigkeit zu den aufgeführten Gruppen benachteiligt. So verstärkt die Anwendung der Algorithmen bereits vorherrschende Verzerrungen.
Die Problematik der potentiellen Diskriminierung beim Einsatz von Künstlicher Intelligenz ist Teil einer größeren Debatte um die Entwicklung und Anwendung von KI und deren Grenzen. Entsprechend wird das Thema auch in der KI-Strategie der Bundesregierung sowie in der von der Bundesregierung eingerichteten Datenethikkommission und der Enquete-Kommission „Künstliche Intelligenz“ adressiert. Auf der europäischen Ebene wird in den „Ethik-Richtlinien zum Einsatz von Künstlicher Intelligenz“ der High-Level Expert Group on Artificial Intelligence der Europäischen Kommission darauf hingewiesen, dass Lernende Systeme diskriminierungsfrei sein sollen. Dies haben bereits auch einige Unter- nehmen erkannt und sind entsprechende Selbstverpflichtungen eingegangen oder haben spezielle Ethikräte eingerichtet.
Die Unterarbeitsgruppe Recht und Ethik der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme möchte mit dem Whitepaper einen Beitrag zu dieser Debatte leisten. So zeigen die Autorinnen und Autoren erstens die verschiedenen Facetten von Diskriminierung auf und thematisieren zweitens nicht nur technologische Lösungen *3, sondern fokussieren auch gesellschaftliche Aspekte. So wird erörtert, welche Aspekte der Diskriminierung im gesellschaftlichen Dialog behandelt werden müssen und welche Institutionen hierbei behilflich sein können. Im Mittelpunkt stehen dabei Systeme, von deren Entscheidungsvorschlägen oder Entscheidungen in erster Linie Personen und deren Zugang zu Leistungen, Gütern oder gesellschaftlichen Teilhabemöglichkeiten beeinflusst werden. Das Papier zeigt, dass nicht jede Unterscheidung per se ungerechtfertigt ist, sondern Diskriminierung dann vorliegt, wenn eine Gleich- oder Ungleichbehandlung ungerechtfertigt ist. Quellen für Diskriminierung durch Lernende Systeme sind vor allem in Input- und den Trainingsdaten, aber auch im Output der Anwendung zu finden. Die größten Herausforderungen für diskriminierungsfreie KI-Anwendungen liegen in einer mangelnden Transparenz der Algorithmen, deren stetigem Weiterlernen, der fehlenden Neutralität der Daten sowie unklaren Verantwortlichkeiten. Ein möglicher Ansatzpunkt ist, die Erklärbarkeit und Überprüfung der Vorgänge zu fördern – etwa durch eine unabhängige Instanz, die als Stellvertreter der Bürgerinnen und Bürger agiert. Weiterhin gilt es, die Kriterien, anhand derer ein Algorithmus lernt, vorzuselektieren. Wichtig für diskriminierungsfreie KI-Anwendungen ist zudem, Gerechtigkeit als Zielgröße maschinellen Lernens zu definieren und Menschen, die durch eine KI-basierte Entscheidung benachteiligt wurden, eine effektive Rechtsdurchsetzung zu ermöglichen.
Fußnoten
*1 Ein erster Überblick über potentiell unbedachte negative Folgen bei der Anwendung von Künstlicher Intelligenz ist im „Atlas der Automatisierung“ von AlgorithmWatch zu finden (AlgorithmWatch 2019).
*2 Für einen Überblick über diese Praxis siehe Angwin et al. 2016
*3 Für einen ersten Überblick zu den technologischen Lösungen für ethische KI-Anwendungen kann z. B. der Report des Dagstuhl Seminars 16291 (Abiteboul et al. 2016) oder das Projekt Data Responsibility herangezogen werden.