Bias in KI: Programmierte Vorurteile

Bewerbungssoftware benachteiligt Schwarze und Frauen, Suchmaschinen liefern diskriminierende Bilder. Längst ist klar: gegen die in Algorithmen versteckten Vorurteile muss vorgegangen werden. Dietmar Hübner, Philosophieprofessor an der Universität Hannover, erforscht mit Wissenschaftlerinnen und Wissenschaftlern aus Informatik, Rechtswissenschaften und Philosophie die Hintergründe, um gemeinsam Lösungsansätze zu entwickeln.

Gender Bias
Eine Amazon-Software von 2014, die mittels Künstlicher Intelligenz ein Ranking von Bewerberinnen und Bewerbern für einen Job bei Amazon erstellte, wurde vier Jahre später als diskriminierend erkannt: Der Algorithmus diskriminierte weibliche Bewerberinnen. (Grafik: Melita - adobe.stock.com)

Objektive Entscheidungen trifft niemand

Die meisten Menschen wissen, dass sie ihren Entscheidungen nicht immer trauen können: Wir vermischen Fakten, Halbwissen, Vorurteile und Bauchgefühle zu einer Mixtur, auf deren Grundlage wir Beschlüsse fassen – in der Hoffnung, damit am Ende richtig zu liegen. Wirklich objektive Entscheidungen trifft kein Mensch. Um diesem Problem zu Leibe zu rücken, verlagern wir in den verschiedensten Lebensbereichen zunehmend Verantwortung auf Maschinen. Computer und Algorithmen entscheiden über Kreditwürdigkeit, Aktieninvestitionen und die Zeitungsartikel, die wir lesen. Die Macht der Algorithmen wächst rasant: Immer häufiger bewerten Computer Menschen auch in sensiblen Fragen, die lebensentscheidend sind. Zum Beispiel richten sie darüber, ob eine Bewerbung zu einem Vorstellungsgespräch führen sollte oder ob jemand studierfähig ist. Doch ist es eine gute Idee, diese Entscheidungen Maschinen zu überlassen? 

Sind Rechenmaschinen rationaler?

Immerhin sind Algorithmen, so glauben wir, weder schlecht gelaunt, noch hegen sie unterschwellige Vorurteile. Manche hoffen deshalb, die rationale Rechenmaschine Computer werde wichtige Bewertungen objektiver und gerechter machen. 

"Leider ist das nicht immer der Fall", sagt Dietmar Hübner. "Der Einsatz von Künstlicher Intelligenz lässt Vorurteile nicht verschwinden. Manchmal bewahrt und verstärkt er sie sogar." Der Professor für Philosophie an der Universität Hannover beschäftigt sich gemeinsam mit Kolleginnen und Kollegen aus den Fachbereichen Informatik und Recht mit dem Phänomen Machine Bias. Danach sind Entscheidungen von Computern und Algorithmen mitunter genauso rassistisch, frauenfeindlich und diskriminierend wie menschliche.

In dem interdisziplinären Forschungsprojekt "Bias and Discrimination in Big Data and Algorithmic Processing. Philosophical Assessments, Legal Dimensions and Technical Solutions" (BIAS) wollen die Forschenden den Ursachen und Auswirkungen dieses Problems auf den Grund gehen und gleichzeitig technische und juristische Konzepte zur Bekämpfung entwickeln.

Beispiele dafür, wie erstaunlich konsequent Algorithmen verschiedene Bevölkerungsgruppen diskriminieren, also Machine Bias zeigen, gibt es viele: 

Bereits im Jahr 2014 hat Amazon in den USA eine Software entwickelt, die mittels Künstlicher Intelligenz ein Ranking von Bewerberinnen und Bewerbern für einen Job bei Amazon erstellte. Vier Jahre später kam heraus: der Algorithmus diskriminierte weibliche Bewerberinnen. Eine Google-Software zur automatischen Bildsortierung beschriftete das Foto einer Afroamerikanerin mit dem Titel "Gorilla". Eine neuseeländische Passbehörde verweigerte asiatische Pässe, weil sie die Augen der abgebildeten Personen für geschlossen hielt.

Ein Algorithmus, der diskriminiert

"Ein besonders eindrückliches Beispiel ist die Software Compas, die in den USA Richter bei Entscheidungen unterstützt", sagt Hübner. Compas sagte für afroamerikanische Personen, die Straftaten begangen hatten, eine höhere Rückfallwahrscheinlichkeit voraus als für weiße. Vor allem: Compas täuscht sich in seinen Prognosen für Afroamerikanerinnen und Afroamerikaner deutlich häufiger, stuft also prozentual mehr Personen aus dieser Gruppe als rückfallgefährdet ein, die dann später gar keine erneuten Straftaten begehen. "Das Ergebnis waren irritierende Geschichten", sagt Hübner. So verpasste Compas beispielsweise der 18-jährigen Brisha Borden für einen Fahrraddiebstahl den Wert 8, was einem sehr hohen Rückfallrisiko entspricht. Zur gleichen Zeit erhielt ein bereits für andere Diebstähle und schwerere Verbrechen verurteilter Mann gnädige 3 Punkte. Der offensichtliche Unterschied zwischen diesen beiden Personen war die Hautfarbe – Brisha Borden ist schwarz. 

Künstliche Intelligenz ist wie ein Messer.

Doch wie kann es passieren, dass eine Maschine menschliche Vorurteile wiederholt und anwendet? Und wie kann man das verhindern? "Künstliche Intelligenz ist wie ein Messer. Man kann sich zwar damit verletzen, aber auch sehr sinnvolle Dinge tun, etwa Gemüse schneiden.", sagt Bodo Rosenhahn, Informatiker und Professor am Institut für Informationsverarbeitung der Leibniz Universität Hannover. Er und sein Team erarbeiten für das Forschungsprojekt BIAS die technischen Konzepte zur Lösung des Problems. Algorithmen lernten von ausgewählten Trainingsdaten, also zum Beispiel aus Informationen darüber, wie Menschen bislang bestimmte Entscheidungen getroffen haben, erklärt er. "Wenn diese Trainingsdaten aber unzureichend ausgewählt sind, reproduzieren Algorithmen soziale Probleme. Ich als Informatiker trainiere Modelle und muss mathematische Bedingungen festlegen, die algorithmische Entscheidungen steuern." In vielen Fällen widersprächen sich die Bedingungen aber.

Ich erhoffe mir moralische Leitlinien und Regeln, damit Algorithmen in Zukunft fairer programmiert werden können.

Vereinfacht gesagt: Ist auf der einen Seite eine bestimmte Art von Diskriminierung verhindert, so entsteht auf der anderen Seite vielleicht eine neue für eine andere Gruppe von Menschen. Ist beispielsweise ein Algorithmus darauf programmiert, im Zweifel bei Angeklagten ein strenges Bewertungsmaß einzusetzen, so landen vielleicht mehr Unschuldige hinter Gittern.

Informatikerinnen und Informatiker müssen Daten kuratieren und programmieren, also Entscheidungen treffen, die weitreichende gesellschaftliche Auswirkungen haben. Hier sieht Rosenhahn den Sinn der interdisziplinären Zusammenarbeit bei BIAS: "Ich erhoffe mir von den Ethikern und Rechtswissenschaftlern moralische Leitlinien und Regeln, damit Algorithmen in Zukunft fairer programmiert werden können."

Grafik von verschiedenen Köpfen
Die Forschenden plädieren: Es werden "Faireness measurements" benötigt. (Grafik: Adobe Stock 381820185_3_0)

"Fairness measures" werden benötigt

Diese Regeln, sogenannte Fairness Measures, zu erarbeiten und gegeneinander abzuwägen, ist die Aufgabe von Philosophieprofessor Dietmar Hübner und seinem Team. Dabei sind derartige Abwägungen ziemlich schwierig: "Vorstellungen und Konzepte von Fairness und Moral ändern sich mit der Zeit und hängen vom jeweiligen Kontext ab", sagt er. "Es ist ein längerer Prozess, hier eindeutige Definitionen zu finden." 

Im interdisziplinären Forschungsprojekt prallen also sehr unterschiedliche Denk- und Arbeitsweisen aufeinander: Philosophische Dialektik und mathematische Eindeutigkeit. Darin sieht auch die Computerwissenschaftlerin Eirini Ntoutsi eine Herausforderung – aber auch eine neue Perspektive. "Für mich als Informatikerin ist tatsächlich die Arbeit mit einem so kontextabhängigen und dehnbaren Begriff wie Fairness ungewohnt", berichtet die Professorin am Institut für Elektrotechnik und Informatik der Leibniz Universität Hannover und Kollegin von Bodo Rosenhahn. "Aber ich habe bereits viel aus der Zusammenarbeit bei BIAS gelernt: Vorher war mir beim Design technischer Lösungen nicht bewusst, welche konkreten Auswirkungen meine Entscheidungen auf Menschen haben", sagt sie. 

Vertrauen ist nicht angebracht

Blindes Vertrauen in die Technik kann problematisch sein: Wir Menschen wissen, dass wir Fehler machen und uns von Gefühlen irreleiten lassen. Wir sprechen uns deshalb ab, bilden divers besetzte Gremien, ernennen Gleichstellungsbeauftragte, setzen auf Mehrheitsentscheidungen und erlassen Antidiskriminierungsgesetze. Für Algorithmen gibt es all das nicht – noch nicht. 

Besonders im privaten und unternehmerischen Bereich wird Diskriminierung durch Algorithmen in Deutschland eine Rolle spielen

Das will der Rechtswissenschaftler Christian Heinze ändern. Er bildet mit seinem rechtswissenschaftlichen Team die dritte an BIAS beteiligte Forschergruppe. Heinze beschäftigt sich mit der Frage, wie rechtliche Standards und Gesetze Menschen vor einer Ungleichbehandlung durch Algorithmen schützen könnten. "Besonders im privaten und unternehmerischen Bereich wird wohl Diskriminierung durch Algorithmen in Deutschland eine Rolle spielen", erklärt der Professor am Institut für deutsches und europäisches Gesellschafts- und Wirtschaftsrecht in Heidelberg. Bereits rund fünf Prozent aller deutschen Unternehmen wenden Künstliche Intelligenz an, zum Beispiel bei der Einstellung von Personal oder bei der Darlehensvergabe. "Das allgemeine Gleichbehandlungsgesetz verbietet eine Diskriminierung etwa aufgrund von ethnischer Herkunft oder aufgrund des Geschlechts", sagt er. Doch im Fall der Algorithmen im privaten Sektor sei eine Diskriminierung oft gar nicht erkennbar, weil sie indirekt geschehe. Wenn beispielsweise ein Algorithmus so programmiert sei, alle Bewerberinnen und Bewerber auf eine Stelle, die nicht Vollzeit arbeiten, auszusortieren. "Dann diskriminiert dieser Algorithmus indirekt Frauen, weil Frauen die große Mehrheit der Arbeitnehmer in Teilzeit stellen."

Wie also begegnet man diesem Problem rechtlich am besten? Es sei wichtig, dass auch Rechtswissenschaftler zu solchen Themen publizieren. "Gerichte beschäftigen sich normalerweise nicht mit Computerwissenschaft," sagt Heinze. Durch die interdisziplinäre Zusammenarbeit geschehe eine Auseinandersetzung mit dem Thema Machine Bias so, dass es ganz verschiedene Fachbereiche auch wahrnähmen. "Ideal wäre es, wenn es gelänge, Erkenntnisse der Philosophie und Computerwissenschaft in ein passendes Diskriminierungsgesetz zu übersetzen."

In manchen Fällen gibt es gute ethische Gründe, keine Algorithmen anzuwenden

Wie das aussehen könnte, ist noch offen. "In manchen Fällen gibt es gute ethische Gründe, keine Algorithmen anzuwenden", sagt Dietmar Hübner. "Das liegt dann nicht nur an den problematischen Inhalten von Computer-Vorhersagen, sondern auch der Art, wie sie zustande kommen oder präsentiert werden. Insbesondere wenn die Verarbeitungswege nicht transparent sind, können Probleme bei der Anwendung von KI entstehen." Womöglich kommen wir als Gesellschaft am Ende der Debatte zum Schluss, dass in einigen Lebensbereichen doch besser weiterhin Menschen über Menschen urteilen sollten. Fehler miteingeschlossen.

Nur wenn die KI-Entwicklung sich auch mit den ethischen, moralischen und normativen Folgen ihres Handelns befasst, wird Vertrauen in der Gesellschaft wachsen. Darum geht es in unserem Themenschwerpunkt "Künstliche Intelligenz und die Gesellschaft von morgen".