Sie sind Leiterin der Forschungsgruppe "Kritikalität KI-basierter Systeme" am Weizenbaum-Institut in Berlin und stellen die derzeitigen Gestaltungsgrundsätze für die Entwicklung intelligenter Systeme in Frage. Wo liegt der Fehler? Was sollte anders gemacht werden?
Diana Serbanescu: Wie alle Technologien sind auch KI basierte Systeme häufig von einer Aura der Wahrheit und Objektivität umgeben. Wie Donna Haraway jedoch postuliert: "Technology is not neutral. We're inside of what we make, and it's inside of us. We’re living in a world of connections — and it matters which ones get made and unmade”. Es ist wichtig, sich dessen bewusst zu sein, dass Technologien, die von Menschen entworfen und entwickelt werden, auch von vorherrschenden Machtstrukturen geprägt und daher anfällig für verschiedene Arten von Vorurteilen sind. Wenn man das außer Acht lässt, können diese Voreingenommenheiten zu systemischer Diskriminierung führen.
Die Ursachen für Vorurteile sind vielfältig – von der mangelnden Vielfalt in den Design- und Entwicklungsteams bis hin zu Datensätzen, die bestehende soziale Vorurteile widerspiegeln. Wir müssen sicherstellen, dass die von uns verwendeten intelligenten Systeme nach angemessenen Kriterien der Fairness und Verantwortlichkeit entworfen wurden. Folglich ist die Identifizierung kultureller und rassischer Vorurteile sowie der in den Datensätzen vorhandenen symbolischen Machtstrukturen eine wichtige Forschungsaufgabe.
Ein weiterer wichtiger Schritt, um intelligente Systeme fair und rechenschaftspflichtig zu gestalten, besteht darin, sicherzustellen, dass wir verstehen, wie sie funktionieren – und das bedeutet Erklärbarkeit. Die von Natur aus komplexen Systeme sind selbst für ihre eigenen Entwickler undurchsichtig geworden. Und es besteht, obwohl die Mathematik hinter der bestehenden KI gut theoretisiert ist, eine der größten Herausforderungen darin, bestimmte Implementierungen für den Menschen erklärbar zu machen, indem man eine klare Rechtfertigung für jede Handlung oder Überzeugung liefert. Die Entschlüsselung dessen, was in der Blackbox vorgeht, ist von entscheidender Bedeutung, da die KI einen maßgeblichen Einfluss auf unser Leben gewonnen hat: Wir müssen ihre innere Funktionsweise besser verstehen, um Vertrauen zu gewinnen. Um unbeabsichtigte Verzerrungen oder den Missbrauch von KI-Systemen zu vermeiden, sind Transparenz und Nachvollziehbarkeit nicht nur wünschenswert, sondern zwingend erforderlich.
Sie haben auch REPLICA, "Institute for creative anticipation and performing arts", mitgegründet, das einen ethischen Rahmen für den Diskurs über zukünftige soziotechnologische Phänomene schaffen will. Was ist Ihr zentrales Ziel, welchen Beitrag können die Künste da leisten?