Zum Themenschwerpunkt "Künstliche Intelligenz und die Gesellschaft von morgen" der VolkswagenStiftung
Die Firma Northpointe werbe zudem damit, dass ihre Software sehr korrekt arbeitet und behaupte, dass 70 Prozent der von Compas als hochgradig rückfallgefährdet Eingestuften tatsächlich wieder Straftaten begehen. Verschiedene Untersuchungen in den USA hätten aber gezeigt, dass nur 25 Prozent der Straftäterinnen und Straftäter, die von der Software zur Hochrisikogruppe gerechnet werden, wirklich rückfällig wurden.
"Da wird die ethische Verantwortung natürlich sichtbar. Wir müssen uns als Gesellschaft die Frage stellen, was uns wichtiger ist: die Sicherheit? – Dann landen mehr Unschuldige vorsorglich hinter Gittern. Oder dass gefährliche Straftäterinnen und Straftäter eventuell nicht bestraft werden, weil die Software eher weniger streng entscheidet." Beide Ausrichtungen könne man problemlos einprogrammieren. "Wir müssen also die Entscheidung treffen, was wir in unserer Rechtsprechung als ethisch richtig empfinden – und vor allem müssen wir alle Beteiligten schulen", sagt Katharina Zweig. So müssten auch die Richterinnen und Richter in den USA den Umgang mit solcher Software lernen, um etwa den Vorschlag von Compas bewerten zu können.
Im Grunde seien die Überlegungen, die die Gesellschaft jetzt anstellen müsse, uralte Fragen aller Zivilisationen: Was ist Gerechtigkeit? Was ist Rache? Was soll Strafe leisten? "Um Technik geht es dabei kaum", sagt Zweig und liefert damit zugleich die Begründung dafür, warum bei vielen Fragestellungen zur künstlichen Intelligenz interdisziplinäre Zusammenarbeit so wichtig ist – und der enge Austausch untereinander.
Wer entscheidet wie – und warum
Wesentlich sei dabei, die verschiedenen Ausgangspositionen und Sichtweisen der Beteiligten erst einmal in Einklang zu bringen. Im aktuellen Projekt diente das erste Treffen dazu, Begriffe auf Tauglichkeit für alle abzuklopfen. "Die zentrale Frage war: Was ist eigentlich eine gute Entscheidung? Das bedeutet für Informatikerinnen und Informatiker oder Juristinnen und Juristen etwas anderes als für Psychologinnen und Psychologen", sagt Anja Achtziger. Die Psychologieprofessorin von der Zeppelin Universität Friedrichshafen beschäftigt sich seit mehr als zwölf Jahren mit kognitiver Entscheidungspsychologie. Achtziger sieht ihre Aufgabe innerhalb des Projekts zunächst auch darin, den Kolleginnen und Kollegen anderer Disziplinen zu vermitteln, wie Menschen über Menschen entscheiden.
Was ist eigentlich eine gute Entscheidung? Das bedeutet für jeden etwas anderes.
"Natürlich sind Menschen von Stereotypen und Klassifizierungen geprägt, wenn sie Entscheidungen treffen. Das ist einfach nötig, denn sonst wären wir von der Komplexität der Welt überwältigt", sagt Achtziger. Mit anderen Worten: Vorurteile bestimmen immer mit, kein Mensch kann sich davon freimachen. Manche glauben deshalb, eine technische Justizhilfe wäre ein Weg zu mehr Gerechtigkeit – theoretisch. "Das ist nicht der Fall, leider. Denn Menschen programmieren Algorithmen, die selbstlernenden Systeme lernen aus den Daten, die wir ihnen zur Verfügung stellen." Da diese Daten nicht neutral sein können, sind es auch algorithmische Entscheidungsfindungssysteme nicht.
Menschen sind von Stereotypen geprägt, wenn sie Entscheidungen treffen.
"Hat ein System beispielsweise eine Palette Verdächtiger für eine Straftat zur Auswahl und soll auswählen, wer es war, dann wird es mit hoher Wahrscheinlichkeit ein schwarzer Mann im Alter zwischen 18 und 22 Jahren sein", sagt Achtziger. Denn diese Gruppe ist bei bestimmten Straftaten wie Drogendelikten in den USA besonders häufig vertreten, besagt die Statistik. Die Gründe dafür sind vielfältig: Vermutlich würden schwarze Menschen häufiger kontrolliert, was natürlich zu einer häufigeren Verurteilung führt. Außerdem sei Armut ein wichtiger Faktor.
Ich frage mich, durch welche Ziele und Motive menschliche Entscheider beeinflusst sind – und ob Algorithmen diese genauso abbilden können.
Achtziger möchte im Projekt genauer klären, wie sich menschliche Denk- und Informationsverarbeitungsprozesse in den Datensätzen spiegeln, die für das Machine Learning verwendet werden. "Ich frage mich, durch welche Ziele und Motive menschliche Entscheiderinnen und Entscheider beeinflusst sind – und ob Algorithmen diese genauso abbilden und übernehmen können."
Vereinbar mit den Menschenrechten?
Auch auf die Rechtswissenschaften wirkt der Einsatz von algorithmischen Entscheidungsfindungssystemen (ADM, von engl. Algorithmic Decision Making) zurück. "Es muss geprüft werden, welche gesetzlichen Vorschriften dafür relevant wären und ob ADM-Systeme diesen überhaupt entsprechen können", stellt Wolfgang Schulz fest. Der Direktor des Hans-Bredow-Instituts für Medienforschung in Hamburg ist der Rechtsexperte in der Forschergruppe und bringt die notwendige juristische Perspektive in das Projekt mit ein. "Ein Fokus soll dabei Artikel 6 der Europäischen Menschenrechtskonvention sein, der das Recht jedes Einzelnen auf ein gerechtes Verfahren fordert."