Veranstaltungsbericht

Künstliche Intelligenz: Spiegel gesellschaftlicher Verzerrungen

#Künstliche Intelligenz

Autorin: Dr. Ulrike Schneeweiß

Wie muss Künstliche Intelligenz (KI) reguliert und gestaltet werden? Wie trägt die gesellschaftliche Debatte dazu bei, dass KI bestehende Ungleichheiten in Gesellschaften nicht verstärkt? Darüber sprachen Expert:innen beim Herrenhäuser Forum am 13. Oktober.

KI Hand Play Video

Mit dem Einsatz von Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) ist an bestimmten Stellen die Hoffnung verbunden, eine stärkere Evidenzbasierung führe zu "besseren" Entscheidungen – im Sinne von unvoreingenommener oder gerechter. Gleichzeitig mahnen manche Expert:innen vor dem unsichtbaren Einfluss, den die Technologien auf unseren Lebensalltag haben können. Die freie Journalistin und Moderatorin des Abends Vera Linß eröffnete die Diskussionsrunde "Wie KI bestehende Ungleichheitsverhältnisse beeinflusst" mit der Frage: "Kann KI so gestaltet sein, dass sie objektive Entscheidungen trifft?"

KI-Algorithmen so zu gestalten, dass sie bestimmte Wertvorstellungen umsetzen, die wir für wichtig erachten, sei eine große Herausforderung, antwortete Prof. Dr. Olaf Kramer vom Seminar für Allgemeine Rhetorik der Universität Tübingen. In die Entwicklung flössen gesellschaftliche Vorurteile ein, während wir selbst oft nicht reflektierten, dass wir blinde Flecken haben und uns "mit gewissen gesellschaftlichen Ungleichheiten ganz gut arrangiert haben." Prof. Dr. Margrit Seckelmann vom Institut für Rechtsinformatik der Universität Hannover wies darauf hin, dass KI uns geradezu einen Spiegel unserer Bewertungen vorhalten könne: "Beim Thema "Bias" beziehen wir uns auf die Lernprozesse von Algorithmen, die sich selbst aus der Gesellschaft informieren", sagte sie. "Letztlich informieren diese Algorithmen uns darüber, was wir selbst als gerechtfertigt hinnehmen."

Im Raum eines gesellschaftlichen Wertekonsenses

"Nein", lautete die klare Einschätzung von Matthias Spielkamp, eine KI könne nie objektiv sein. Das habe damit zu tun, wie wir die Begriffe verstünden. "In der öffentlichen Diskussion ist es irreführend, von Objektivität zu sprechen", meint der Mitgründer und Geschäftsführer von AlgorithmWatch, einer Nichtregierungsorganisation mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben.

Auch in der Politik herrsche oft die Vorstellung, die mathematisch präzise Auswertung durch eine KI könne in bestimmten Fragestellungen objektivere Antworten geben, als die menschliche Betrachtung. "Das ist ein großes Missverständnis!", sagte Spielkamp. Die Frage nach der Gerechtigkeit zu diskutieren, sei immer nur im Kontext der jeweiligen Zielsetzung einer KI-basierten Analyse und der gesellschaftlichen Wünsche an die Entscheidungshilfe möglich. "Es geht immer darum, bestimmte Werteentscheidungen zu treffen", sagte Spielkamp. "Dabei gibt es keine Neutralität, sondern einen argumentativen Austausch zwischen Menschen" – der gegebenenfalls in eine Einigung münde. Wenn wir diese Einigung im Einzelfall erzielt und Algorithmen entsprechend eingerichtet hätten, könne er sich darauf einlassen, dass als eine bestimmte Art von Objektivität zu bezeichnen. Olaf Kramer stimmte zu, dass wir im Rahmen der ethischen Reflexionen keine allgemein gültige Objektivität erreichten, sondern uns stets im Raum eines gesellschaftlichen Wertekonsenses bewegten. 

Eine Gruppe von Menschen sitzt auf einem Podium.

Moderatorin Vera Linß eröffnete das Gespräch mit der Frage, ob eine KI so gestaltet werden kann, dass sie objektive Entscheidungen trifft.

Trifft KI "bessere" Entscheidungen? 

Das Spektrum der Entscheidungen, die wir als neutral oder objektiv empfinden, verschiebe sich je nach Zielsetzung des Systems, sagte auch Prof. Dr. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Sie differenzierte zwei Teilaspekte der Frage nach der Objektivität von KI-Algorithmen. Da sei erstens die Frage, ob solche Algorithmen Entscheidungen besser treffen könnten als Menschen, im Sinne von präziser, fehlerfreier. Die zweite Frage sei, wie wir sicherstellen, dass die Genauigkeit und Fehlerwahrscheinlichkeit eines Algorithmus gleich hoch sei für sämtliche verschiedenen Personengruppen, die von den Entscheidungen betroffen seien. "Das sind keine trivialen Fragen!", betonte Simon. Die Qualität binärer Entscheidungen sei noch vergleichsweise einfach zu überprüfen, schwieriger werde es schon bei ambivalenten Fragen wie Risikobewertungen. Besonders schwierig werde es bei offenen Fragen wie "Wer ist ein:e gute:r Angestellter:in?". "Dann muss nämlich ein Mensch die Kriterien festlegen, nach denen er die Qualität des oder der Angestellten definiert und misst", sagte sie.

Anspruch auf Diskriminierungsfreiheit 

Dass bestimmte Arten der Diskriminierung dabei manchmal geradezu erwünscht seien, verdeutlichte Matthias Spielkamp am Beispiel der Werbeschaltung in Sozialen Medien. "Der oder die Werbende möchte natürlich, dass möglichst viele Menschen auf die Werbung reagieren – sich beispielsweise auf eine ausgeschriebene Stelle bewerben." Ob es für unsere Gesellschaft jedoch vorteilhaft sei, wenn systematisch mehr Frauen als Männer Stellenanzeigen für Pflegeberufe ausgespielt bekämen, sei eine andere Frage. 

Eine technische Hürde für größere Gerechtigkeit erwähnte Olaf Kramer: "Gerechtigkeitsfragen zu beachten, bedeutet oft, mehr Parameter berücksichtigen zu müssen. Das wiederum geht auf Kosten der Effizienz eines Algorithmus." Judith Simon wies noch darauf hin, dass bestimmte sensible Daten gegebenenfalls erhoben werden müssten, um Diskriminierung durch ein KI-System nachzuweisen. Dabei könnten Entwickler:innen sich in einem Spannungsfeld zwischen Datenschutz und Diskriminierungsfreiheit finden. Sie ergänzte zudem, dass es nicht immer möglich sei, KI-Systeme in Bezug auf alle angewandten Kriterien zu optimieren. Der Mensch sei dann gefragt, die Kriterien zu gewichten. Der Anspruch an KI-Entwickler:innen sei aber, dass sie zumindest überprüfen, ob ihre Algorithmen systematisch diskriminieren.

Matthias Spielkamp sitzt auf einer Bühne.

Matthias Spielkamp von AlgorithmWatch ist überzeugt: KIs können nicht objektiv sein.

Anthropomorphe Vorstellungen verzerren die Wahrnehmung 

Für die Kommunikation über KI sei es eine Herausforderung, dass Menschen dazu neigten, zu personalisieren – "als ob "die KI" eine Entscheidung träfe", sagte Olaf Kramer. Dabei sei ganz klar, betonte Matthias Spielkamp: "Die Systeme entwickeln keine eigene Intention. Der Mensch entscheidet, was sie tun, und bleibt immer für die resultierende Entscheidung verantwortlich." Die anthropomorphen Vorstellungen von KI führten auch dazu, dass wir uns nicht richtig mit den technischen Prozessen auseinandersetzten, sagte Kramer. Das technische Verständnis sei aber Voraussetzung dafür, Fehlentscheidungen zu erkennen und zu korrigieren. Unsere Hollywood-geprägten Bilder von KI-Wesen lenkten unsere Aufmerksamkeit zudem häufig auf sehr komplexe Fragestellungen wie: "Wird die KI den Menschen besiegen?" Währenddessen nähmen wir sehr naheliegende Fragen, etwa wie KI in unser Leben hineinwirke, gar nicht wahr. Zu denen zählt für Kramer, wie öffentliche Meinungsbildung und Diskurs durch den Einsatz von KI auf Social-media-Plattformen beeinflusst werden. 

Magrit Seckelmann sitzt auf einer Bühne.

Auf Basis der DSGVO haben Nutzer:innen ein Recht auf Information über den Gebrauch von personenbezogenen Daten und den darauf basierenden Entscheidungsprozessen, betont Magrit Seckelmann.

KI unter Kontrolle: ein rechtlicher Rahmen 

Welche Wirkung der Einsatz von KI-Algorithmen in Sozialen Medien habe, ob und sie unsere Fähigkeit, gute Entscheidungen zu treffen, beeinflusse – "das ist bisher unklar", sagte Matthias Spielkamp. "In der Praxis geht es aber um die Auswirkungen, und dahingehend müssen wir die Regulierung der Algorithmen gestalten." Ein juristischer Ansatz zur Regulierung von KI ist der Vorschlag für die EU-weit geltende KI-Verordnung. Er wird derzeit in den Mitgliedsstaaten diskutiert. Für die Zuhörer:innen in Schloss Herrenhausen wurde an diesem Abend auch klar, dass schon allein die Unklarheiten um den Begriff der KI diese Diskussion erschweren. Stamme er ursprünglich aus wissenschaftlichen Ansätzen der Informatik, Mathematik und Kognitionswissenschaften, kognitive Prozesse des Menschen zu simulieren und zu erforschen, werde er heute für viele Arten automatischer Entscheidungsprozesse verwendet, erklärte Judith Simon. Doch welche Algorithmen, welche statistischen Methoden sind zur KI zu zählen? "Für die Konsumenten ist die technische Basis letztlich irrelevant", sagte Simon. "Die Diskriminierungsfreiheit ist in jedem Fall nachzuweisen." 

Das besondere an der Methode des maschinellen Lernens sei dabei, dass das Vorgehen nicht nachvollziehbar sei wie bei einfacheren mathematischen Entscheidungsbäumen, das bringe zusätzliche Probleme für die Regulierung. Und nicht nur die technische Unzugänglichkeit künstlicher Intelligenz sorge für Probleme im regulatorischen Umgang mit KI, sagte Kramer. Erschwerend komme hinzu, dass viele KI-Methoden von Unternehmen entwickelt wurden und dem öffentlichen Diskurs damit völlig entzogen seien. Denn viele Unternehmen halten Quellen und Entwicklungsdokumentation unter Verschluss. "Die juristischen Bemühungen sind ein erster Schritt der Politik, diesen Bereich – der schwerwiegende Auswirkungen auf das persönliche und gesellschaftliche Leben haben kann – wieder unter Kontrolle zu bekommen."

Recht auf Auskunft nicht hilfreich

"Sind wir bisher juristisch überhaupt geschützt vor möglichen Fehlentscheidungen einer KI?", wollte Moderatorin Linß wissen. Matthias Spielkamp gab zunächst zu bedenken, dass Verbraucher:innen häufig gar nicht mitbekämen, wo Algorithmen eingesetzt würden und ihr Leben beeinflussten. Sie hätten auf Basis der europäischen Datenschutzgrundverordnung (DSGVO) zwar ein Recht auf Information über den Gebrauch ihrer personenbezogenen Daten und darauf basierende Entscheidungsprozesse, sagte Margrit Seckelmann. "Wird eine KI eingesetzt, nützt ihnen dieses Recht allerdings wenig“, meint die Juristin. „Weil selbst Einblicke in den Quellcode der Software uns oft nichts mehr darüber sagen, wie sie zu ihrem Ergebnis gekommen ist - das ist das Blackbox Phänomen."

Auswirkungen regulieren statt der Technik

Wie ein rechtlicher Rahmen aussehen müsste, um die Situation für Verbraucher:innen transparenter zu machen – auch das diskutierten die Podiumsgäste. "Braucht es die Kennzeichnungspflicht für Entscheidungen auf KI-Basis, eine Nachweispflicht oder Qualitätsstandards für KI-Algorithmen, Dokumentationspflichten für deren Entwicklung, …?", fragte Vera Linß konkret. "Der Fokus der bisherigen Regelungen durch die DSGVO liegt zu sehr auf dem individuellen Datensubjekt", sagte Judith Simon. "Die systemischen Probleme fallen da raus. Möglicherweise kann die KI-Verordnung oder können andere rechtliche Regelungen diese Lücke schließen." Eine entscheidende Frage sei, wieviel Offenlegung von KI entwickelnden Unternehmen verlangt wird. Bei Anwendungen, die als hoch riskant eingestuft werden, könnte das bis zur Forderung nach open source Algorithmen reichen. In anderen Bereichen müsse von den Unternehmen mindestens der Nachweis verlangt werden, dass sie ihre Systeme auf Diskriminierung geprüft haben.

Olaf Kramer sitzt auf einer Bühne.

Olaf Kramer betont, dass manche Arten von Diskriminierung durch KIs geradezu erwünscht seien.

Olaf Kramer gab zu bedenken, dass aus seiner Sicht gerade der Einsatz von KI-Algorithmen in sozialen Medien als hochriskant zu bewerten sei. "Denn sie polarisieren den politischen Diskurs und führen Gesellschaften damit ins Zerreißen", sagte er. "Sie wirken in die Gesellschaft und auch auf Menschen, die keine sozialen Medien nutzen." Matthias Spielkamp sieht diese Gefahren von KI zwar als nicht erwiesen an. Er hält es nichtsdestotrotz für sinnvoll, die Probleme und Auswirkungen von KI-basierten Entscheidungen zu regulieren anstatt nur die Techniken, die dahinterstecken. Eine inhaltliche Aufsicht, wie sie der europäische Digital Services Act (Digitale Dienste Gesetzt) regelt, hält er für geeignet, "die Auswirkungen des Einsatzes von KI besser zu verstehen und in den Griff zu bekommen". 

Widersprüche auf gesellschaftlicher Ebene auflösen 

Im späteren Teil der Diskussion boten die Podiumsgäste durchaus auch positive Ausblicke auf den Umgang mit KI-Technologien und deren Auswirkungen auf die Gesellschaft. Sie waren sich einig: Die Auseinandersetzung mit dem Einsatz automatisierter Entscheidungsverfahren, das Nachdenken darüber wie diskriminierungsarme Algorithmen ausgelegt sein müssen sowie die Ansätze, die Technologien und ihre  Anwendungsbereiche regulatorisch zu zähmen – all das fördere das Bewusstsein für unsere eigenen, widersprüchlichen Wertvorstellungen und belebe im besten Fall eine gesellschaftliche Debatte mit dem Ziel, solche Widersprüche durch Vereinbarungen aufzulösen. 

Eine Frau auf einem Bildschirm auf der Bühne.

Judith Simon wurde digital hinzugeschaltet. Sie sagte, die juristischen Bemühungen zur Regulierung von KI seien ein erster Schritt, um wieder Kontrolle über die Entwicklung und den Einfluss von KIs zu bekommen.

Mehr zum Thema