Beispiele dafür, wie erstaunlich konsequent Algorithmen verschiedene Bevölkerungsgruppen diskriminieren, also Machine Bias zeigen, gibt es viele:
Bereits im Jahr 2014 hat Amazon in den USA eine Software entwickelt, die mittels Künstlicher Intelligenz ein Ranking von Bewerberinnen und Bewerbern für einen Job bei Amazon erstellte. Vier Jahre später kam heraus: der Algorithmus diskriminierte weibliche Bewerberinnen. Eine Google-Software zur automatischen Bildsortierung beschriftete das Foto einer Afroamerikanerin mit dem Titel "Gorilla". Eine neuseeländische Passbehörde verweigerte asiatische Pässe, weil sie die Augen der abgebildeten Personen für geschlossen hielt.
Ein Algorithmus, der diskriminiert
"Ein besonders eindrückliches Beispiel ist die Software Compas, die in den USA Richter bei Entscheidungen unterstützt", sagt Hübner. Compas sagte für afroamerikanische Personen, die Straftaten begangen hatten, eine höhere Rückfallwahrscheinlichkeit voraus als für weiße. Vor allem: Compas täuscht sich in seinen Prognosen für Afroamerikanerinnen und Afroamerikaner deutlich häufiger, stuft also prozentual mehr Personen aus dieser Gruppe als rückfallgefährdet ein, die dann später gar keine erneuten Straftaten begehen. "Das Ergebnis waren irritierende Geschichten", sagt Hübner. So verpasste Compas beispielsweise der 18-jährigen Brisha Borden für einen Fahrraddiebstahl den Wert 8, was einem sehr hohen Rückfallrisiko entspricht. Zur gleichen Zeit erhielt ein bereits für andere Diebstähle und schwerere Verbrechen verurteilter Mann gnädige 3 Punkte. Der offensichtliche Unterschied zwischen diesen beiden Personen war die Hautfarbe – Brisha Borden ist schwarz.
Künstliche Intelligenz ist wie ein Messer.
Doch wie kann es passieren, dass eine Maschine menschliche Vorurteile wiederholt und anwendet? Und wie kann man das verhindern? "Künstliche Intelligenz ist wie ein Messer. Man kann sich zwar damit verletzen, aber auch sehr sinnvolle Dinge tun, etwa Gemüse schneiden.", sagt Bodo Rosenhahn, Informatiker und Professor am Institut für Informationsverarbeitung der Leibniz Universität Hannover. Er und sein Team erarbeiten für das Forschungsprojekt BIAS die technischen Konzepte zur Lösung des Problems. Algorithmen lernten von ausgewählten Trainingsdaten, also zum Beispiel aus Informationen darüber, wie Menschen bislang bestimmte Entscheidungen getroffen haben, erklärt er. "Wenn diese Trainingsdaten aber unzureichend ausgewählt sind, reproduzieren Algorithmen soziale Probleme. Ich als Informatiker trainiere Modelle und muss mathematische Bedingungen festlegen, die algorithmische Entscheidungen steuern." In vielen Fällen widersprächen sich die Bedingungen aber.
Ich erhoffe mir moralische Leitlinien und Regeln, damit Algorithmen in Zukunft fairer programmiert werden können.
Vereinfacht gesagt: Ist auf der einen Seite eine bestimmte Art von Diskriminierung verhindert, so entsteht auf der anderen Seite vielleicht eine neue für eine andere Gruppe von Menschen. Ist beispielsweise ein Algorithmus darauf programmiert, im Zweifel bei Angeklagten ein strenges Bewertungsmaß einzusetzen, so landen vielleicht mehr Unschuldige hinter Gittern.
Informatikerinnen und Informatiker müssen Daten kuratieren und programmieren, also Entscheidungen treffen, die weitreichende gesellschaftliche Auswirkungen haben. Hier sieht Rosenhahn den Sinn der interdisziplinären Zusammenarbeit bei BIAS: "Ich erhoffe mir von den Ethikern und Rechtswissenschaftlern moralische Leitlinien und Regeln, damit Algorithmen in Zukunft fairer programmiert werden können."