Das Keramikmaskottchen bekam Martina Mara anlässlich ihrer Antrittsvorlesung an der Universität Linz geschenkt. (Foto: Max Kratzer)
Immerhin hat Stephen Hawking davor gewarnt, Künstliche Intelligenz könnte die Menschheit eines Tages auslöschen. Sind also die Bedenken nicht doch berechtigt?
Es gibt da gerade ein absurdes Hin und Her zwischen Leuten, die eine Dystopie voraussagen wie Hawking und anderen wie Mark Zuckerberg, die glauben, Künstliche Intelligenz werde alle Probleme der Menschheit lösen. Ich denke, mit solchen extremen Prognosen kann man nur falsch liegen.
Eine Künstliche Intelligenz hält uns einen Spiegel vor
Abseits von Science Fiction gibt es allerdings tatsächlich Probleme, die wir bei der aktuellen technischen Entwicklungsgeschwindigkeit nicht aus den Augen verlieren dürfen: Zum Beispiel sind die Daten, aus denen ein selbstlernender Algorithmus lernt, von Menschen gemacht, die Ziele, nach denen er lernt, von Menschen vorgegeben. Vor dem System selbst muss deshalb niemand Angst haben, eher davor, wie einzelne Menschen es nutzen oder welche Fehlannahmen wir den künstlichen Intelligenzen einspeisen.
Auf was sollte mehr geachtet werden?
Viel wichtiger als Terminator-Fantasien und dieses allgemeine Gestaune über Sexroboter wäre es, mal über unseren Qualitätsanspruch an Daten, anhand derer wir unsere KI-Systeme trainieren, zu diskutieren. Denn darin enthaltene Sichtweisen auf die Welt werden von Algorithmen natürlich reproduziert. Der Beruf des Datenkurators, der sich etwa um Repräsentativität und Fairness von KI-Trainingsdaten kümmert, wird in Zukunft daher enorm wichtig werden. Worauf man außerdem achten sollte, ist, dass viele Technik-Teams immer noch sehr jung, weiß und männlich sind. Es fehlt an Diversität.
In welchen Fällen kann das Probleme bereiten?
Firmen wenden in ihrer Personalabteilung schon jetzt Algorithmen an, um Bewerber zu sortieren und schneller entscheiden zu können, wer für ein Vorstellungsgespräch eingeladen wird oder nicht. Diese Systeme lernen aus Millionen unserer Texte mitsamt all unserer Stereotype. Eine Künstliche Intelligenz hält uns also einen Spiegel vor und zementiert im schlechtesten Fall gesellschaftliche Zustände. Zum Beispiel kann das System Frauen aussortieren, wenn es um den Posten eines Software-Ingenieurs geht. Einfach, weil es aus unseren Daten lernt, dass Frauen offenbar seltener Ingenieure sind. Amazon ist das übrigens gerade mit einer hauseigenen Software passiert. Die mussten den Algorithmus quasi feuern.