"Die Menschen befähigen, KI aktiv mitzugestalten"

Im Kurzinterview: Dr. Diana Serbanescu ist überzeugt, dass Theater und künstlerische Praktiken die Öffentlichkeit erfolgreich mit Forschung und Technik in den Dialog bringen können. 

"Im Guten wie im Schlechten? Mensch aus der Maschine" war der Titel der für den 24. April 2020 geplanten Science Movie Night im Xplanatorium in Herrenhausen, die leider ausfallen musste. Neben Diana Serbanescu war auch Theresa Hannig zur Diskussion über den Film "Ex Machina" eingeladen. Ein Interview mit der Autorin lesen Sie unter "Mensch aus der Maschine?".

Sie sind Leiterin der Forschungsgruppe "Kritikalität KI-basierter Systeme" am Weizenbaum-Institut in Berlin und stellen die derzeitigen Gestaltungsgrundsätze für die Entwicklung intelligenter Systeme in Frage. Wo liegt der Fehler? Was sollte anders gemacht werden?

Diana Serbanescu: Wie alle Technologien sind auch KI basierte Systeme häufig von einer Aura der Wahrheit und Objektivität umgeben. Wie Donna Haraway jedoch postuliert: "Technology is not neutral. We're inside of what we make, and it's inside of us. We’re living in a world of connections — and it matters which ones get made and unmade”. Es ist wichtig, sich dessen bewusst zu sein, dass Technologien, die von Menschen entworfen und entwickelt werden, auch von vorherrschenden Machtstrukturen geprägt und daher anfällig für verschiedene Arten von Vorurteilen sind. Wenn man das außer Acht lässt, können diese Voreingenommenheiten zu systemischer Diskriminierung führen.

Die Ursachen für Vorurteile sind vielfältig – von der mangelnden Vielfalt in den Design- und Entwicklungsteams bis hin zu Datensätzen, die bestehende soziale Vorurteile widerspiegeln. Wir müssen sicherstellen, dass die von uns verwendeten intelligenten Systeme nach angemessenen Kriterien der Fairness und Verantwortlichkeit entworfen wurden. Folglich ist die Identifizierung kultureller und rassischer Vorurteile sowie der in den Datensätzen vorhandenen symbolischen Machtstrukturen eine wichtige Forschungsaufgabe. 

Ein weiterer wichtiger Schritt, um intelligente Systeme fair und rechenschaftspflichtig zu gestalten, besteht darin, sicherzustellen, dass wir verstehen, wie sie funktionieren – und das bedeutet Erklärbarkeit. Die von Natur aus komplexen Systeme sind selbst für ihre eigenen Entwickler undurchsichtig geworden. Und es besteht, obwohl die Mathematik hinter der bestehenden KI gut theoretisiert ist, eine der größten Herausforderungen darin, bestimmte Implementierungen für den Menschen erklärbar zu machen, indem man eine klare Rechtfertigung für jede Handlung oder Überzeugung liefert. Die Entschlüsselung dessen, was in der Blackbox vorgeht, ist von entscheidender Bedeutung, da die KI einen maßgeblichen Einfluss auf unser Leben gewonnen hat: Wir müssen ihre innere Funktionsweise besser verstehen, um Vertrauen zu gewinnen. Um unbeabsichtigte Verzerrungen oder den Missbrauch von KI-Systemen zu vermeiden, sind Transparenz und Nachvollziehbarkeit nicht nur wünschenswert, sondern zwingend erforderlich.

Sie haben auch REPLICA, "Institute for creative anticipation and performing arts", mitgegründet, das einen ethischen Rahmen für den Diskurs über zukünftige soziotechnologische Phänomene schaffen will. Was ist Ihr zentrales Ziel, welchen Beitrag können die Künste da leisten?

Diana Serbanescu: Ich glaube an die Kraft von Theater und künstlerischen Praktiken, als Vermittler zwischen technologischen und wissenschaftlichen Entdeckungen einerseits und der breiten Öffentlichkeit andererseits wirksam sein zu können. Komplexe wissenschaftliche Konzepte können in fantasievolle und erfahrbare Formate übersetzt werden, um verschiedene Gruppen der Gesellschaft in einen spielerischen Dialog mit der wissenschaftlichen Community zu bringen. Um Vielfalt und Inklusion zu fördern, ist es wichtig, experimentelle Räume für ein öffentliches Engagement zu schaffen, die kollektiven Vorstellungen rund um die KI zu erforschen und die Menschen zu befähigen, sich aktiv an der Mitgestaltung neuer Technologien zu beteiligen.

Darüber hinaus erfinden Künstler, unbelastet von wissenschaftlichen Beschränkungen, neue Wege - oft an der Grenze des Machbaren - um Technologien zu nutzen und so deren Möglichkeiten und Limits zu entdecken. Künstlerisches Schaffen ist sehr wertvoll, um kritisch über die Auswirkungen in spezifischen soziokulturellen Kontexten zu reflektieren und Schwachstellen durch unvorhergesehene Anwendungen aufzudecken. Ich denke, künstlerische Methoden und Praktiken sind von entscheidender Bedeutung und notwendig zur Ergänzung  wissenschaftlicher Denkweisen.

Als Anhängerin der von Augusto Boal propagierten Überzeugung, dass "das Theater uns helfen kann, unsere Zukunft zu bauen, anstatt nur darauf zu warten", habe ich REPLICA als praxisorientiertes Forschungsprojekt und Labor für kollektive Experimente mitbegründet. REPLICA besteht aus einem Kernteam von Künstlern mit hybriden Kompetenzbereichen, die von Design über Theatermachen, bis hin zu akademischer Forschung und kreativem Schreiben reichen – und einer Reihe von Mitwirkenden bei einzelnen Projekten. Wir experimentieren mit verschiedenen Techniken und Methoden aus der Theaterpraxis, um innovative Interaktionsdesigns für neue Technologien zu moderieren, kritisch zu beurteilen und weiter zu entwickeln. In einem unserer jüngsten Experimente luden wir Theaterpraktiker des Grotowski-Instituts in Polen ein, ein zweiwöchiges Intensivtraining mit einer gemischten Gruppe von neun Darstellern, Designern und Künstlern zu veranstalten. Dabei wurde untersucht, wie die Theatertechniken Mensch-zu-Mensch-Interaktionen fördern und welche dieser Techniken bei der Gestaltung ansprechender Schnittstellen für Mensch-Maschine-Interaktionen eingesetzt werden könnten.

Die Informatikerin und Kulturwissenschaftlerin Dr. Diana Serbanescu (Foto: Nora Heinisch, Plasma Magazine)

Ein anderes Beispiel für unsere Arbeit ist die Performance "You:me:us:then - Incantation for a Fluid Body", eine Aufführung mit zwei Live-Darstellern und einem virtuellen Tänzer, der auf die Stimmen der Schauspieler reagiert. Sie wurde im Futurium in Berlin im Rahmen der Veranstaltung "Künstliche Intelligenz*innen" im Kontext eines Vortrags über Feminismus und KI vor einem gemischten Publikum aus Wissenschaftlern, Künstlern und der breiten Öffentlichkeit - meist Familien und Jugendlichen - präsentiert. Neben vielen anderen Aktionen veranstalteten wir für die Teilnehmerinnen und Teilnehmer der re:publica 2018 einen Workshop "Algorithmen und Rituale". 

Wo sehen Sie die Hauptgründe für das Misstrauen vieler Menschen gegenüber KI? Muss Kommunikation anders sein, auch von Seiten der Wissenschaft?

Diana Serbanescu: Viele KI-Systeme sind bisher Blackboxes, und die Öffentlichkeit wird oft von Misstrauen und Ignoranz in Bezug auf ihren theoretischen Rahmen geleitet. Beim Schaffen verlässlicher und ethischer KI-Systeme sollte zentral sein, nach Intelligenz mit menschlich geprägten Werten zu streben, basierend auf Inklusion und Diversität. Sowohl der Entwurf als auch die Qualitätssicherung so ausgerichteter Tools gehen über die Expertise von Ingenieuren hinaus. Sie müssen Gegenstand interdisziplinärer Forschung sein und ein Anliegen der ganzen Öffentlichkeit. 

Es ist entscheidend, dass Wissenschaftler, die sich mit der KI-Forschung befassen, ihre Arbeit nicht losgelöst vom realen Leben, in dem diese Systeme arbeiten, durchführen. Meiner Meinung nach ist es wichtig, dass ein Teil der Forschungsressourcen in den Aufbau von Plattformen für den Wissenstransfer und die Debatte zwischen der wissenschaftlichen Gemeinschaft und der Zivilgesellschaft investiert wird. Nur dadurch wird es möglich, praktische Erkenntnisse über die Auswirkungen von KI in den Umgebungen zu sammeln, in die sie eingebettet ist. Diese anwendungsbezogene Arbeit erfordert aber einen enormen Zeit- und Energieaufwand auch von Forscherinnen und Forscher, die sich vielleicht auf einer eher theoretischen Grundlage wohler fühlen. Und hier sehe ich wieder eine Chance für die fruchtbare Zusammenarbeit von Wissenschaft und Kunst: Forscher sollten Personen aus der Kreativwirtschaft, Experten für Moderation und öffentliche Kommunikation, einbeziehen, und mit ihnen gemeinsam solche Wissenstransfer-Foren und -Laboratorien organisieren.

Das Projekt "The Shape Of Things To Come - Rehearsing Future Societies With Artificial Intelligence" von Diana Serbanescu wird von der VolkswagenStiftung im Rahmen der Förderinitiative "Künstliche Intelligenz - Ihre Auswirkungen auf die Gesellschaft von morgen" gefördert 

Zum Themenschwerpunkt "Künstliche Intelligenz und die Gesellschaft von morgen" der VolkswagenStiftung