Künstliche Intelligenz - kontrollierte Intelligenz?

Datum

Bei der 15. Leopoldina Lecture der VolkswagenStiftung erklärte die Politikwissenschaftlerin Lorena Jaume-Palasí, warum wir als Gesellschaft ganz neu denken müssen, um den Umgang mit Systemen der künstlichen Intelligenz sinnvoll zu regulieren. Der Physiker Klaus-Robert Müller stellte informationstechnische Weiterentwicklungen vor, die uns dabei helfen können.

Symbolbild Hand mit Waage
Im Namen des Volkes: Wo sind die Grenzen künstlicher Intelligenz bei Entscheidungen, die direkt menschliche Belange betreffen? (Production Perig - stock.adobe.com)

Veranstaltungsbericht zur 15. Leopoldina-Lecture der Nationalen Akademie der Wissenschaften Leopoldina in Kooperation mit der VolkswagenStiftung im Schloss Herrenhausen am 8. Oktober 2019: "Künstliche Intelligenz – kontrollierte Intelligenz" mit Prof. Dr. Klaus-Robert Müller, Lorena Jaume-Palasí, und Christoph Kappes (Moderation).

Kein Platz ist leer geblieben im Auditorium des Xplanatoriums in Schloss Herrenhausen an diesem Abend – und Prof. Dr. Klaus-Robert Müller, Direktor des Berliner Zentrums für Maschinelles Lernen und Co-Direktor des Berlin Big Data Center, hielt seinen Vortrag vor gut informiertem Publikum: Die große Mehrzahl der Zuhörerinnen und Zuhörer konnte sich nach eigenem Empfinden unter dem Begriff "Machine Learning" bereits zu Beginn der Veranstaltung etwas vorstellen. Dabei sei künstliche Intelligenz ein so inhärent mathematisches Thema, findet der Physiker und Informatiker Müller, dass selbst Journalistinnen und Journalisten sich schwer täten, die Technologie verständlich darzustellen. Er wolle versuchen, wichtige Aspekte mit möglichst wenig Mathematik zu erklären. 

Mann am Rednerpult
Prof. Dr. Klaus-Robert Müller erläutert bei einer Leopoldina Lecture im Schloss Herrenhausen die "Erklärbarkeit und Transparenz von KI Algorithmen" (Foto: Philip Bartz)

Machine Learning ahmt menschliches Gehirn nach

Technisch gesehen basiere künstliche Intelligenz (KI) einerseits auf Big Data, dem Sammeln und Verwenden großer, komplexer Datenmengen, andererseits auf maschinellem Lernen (Machine Learning, ML), erklärte Müller. Es handele sich um Computersysteme, welche mithilfe von Algorithmen die Lernfunktion des menschlichen Gehirns nachahmen. Schon seit den 1960er Jahren habe man solche Systeme konstruiert, die mittlerweile zu sogenannten tiefen neuronalen Netzen mit zahlreichen Ebenen und Millionen von Parametern weiterentwickelt wurden. Diese Algorithmen ließen sich darauf trainieren, auf Basis eines Modells und großer Mengen Übungsdaten eigenständig ein Konzept zu erlernen.

Müller verglich den maschinellen Lernprozess mit dem eines Kindes, das verschiedene Stühle kennenlernt und daraus das "Konzept Stuhl" abstrahiert. Ziel der Anwendung sei es, aufgrund von vorhandenen Daten eine möglichst präzise Vorhersage machen zu können. "Machine Learning ist eine Basistechnologie der Digitalisierung", konstatiert Müller. Die mathematisch wohl definierten ML-Systeme seien heute zudem ein ökonomischer Faktor in vielen Bereichen der Industrie und der Wissenschaften. Als Beispiele nennt er unter anderem die Bilderkennung, das autonome Fahren, aber auch wissenschaftliche Disziplinen wie Quantenchemie und Physik. 

Raus aus der Black Box: Erklärbare KI 

Ein Hindernis im Umgang mit KI Systemen sei bisher das sog. "Black-box-Phänomen" gewesen. Es bezeichnet den Umstand, dass selbst Expertinnen und Experten kaum nachvollziehen konnten, auf welchem Weg ein ML-Algorithmus zu seiner Vorhersage kommt. Müller selbst forscht auf dem Gebiet der "erklärbaren KI". Das bedeutet, dass er versucht, diese bisher schwer nachvollziehbaren Pfade der Entscheidungsfindung in den Lernmaschinen erklärbar und transparent zu machen. 

Die besondere Schwierigkeit bei der Entwicklung von Erklär-Algorithmen liege darin, "dass es einen mathematischen Durchbruch braucht, um die Nichtlinearität der Netze aufzulösen", erläutert Müller. In den letzten Jahren ist ihm und anderen Forschenden dieser Durchbruch gelungen: Sie konnten Theorie und Software entwickeln, welche die Entscheidungspfade im tiefen neuronalen Netz vollständig zurückverfolgen und visualisieren kann.

Key visual Themenschwerpunkt künstliche Intelligenz
Weitere Artikel zum Theme "Künstliche Intelligenz und die Gesellschaft von morgen" in unserem Themenschwerpunkt (Bildlink)

Zur Veranschaulichung präsentiert Müller Aktivitätskarten. Auf ihnen ist hervorgehoben, welche Pixel eines Bildes ein ML-Algorithmus als besonders relevant eingestuft hat, um ein Bild einem bestimmten Konzept zuzuordnen. Im Falle des Fotos von einem Hahn waren das zum Beispiel die Pixel des roten Hahnenkammes, einen Kaffee erkannte eine ML-Software anhand der Crema, eine Katze am wuscheligen Fell.

Solche Software zum Nachvollziehen der Entscheidung von Lernmaschinen löse das Problem der Erklärbarkeit künstlicher Intelligenz, meint Müller. Es gibt zum Beispiel Algorithmen, die ein Objekt zwar korrekt klassifizieren, dies aber nicht anhand der Eigenschaften des Objektes erreichen sondern aufgrund von zusätzlicher Information, beispielsweise der Beschriftung eines Bildes. Nach dem scheinbar mathematisch begabten Pferd, das als Kluger Hans bekannt wurde, werden sie auch "Kluger-Hans-Algorithmen" genannt. Die Erklär-Software hilft, solche Algorithmen zu entlarven, die, wie Müller es ausdrückt, "gelernt haben, zu beschummeln." Sie eröffnen somit eine Chance für Industrie und Wissenschaften, mehr Transparenz herzustellen und neue Erkenntnisse zu bekommen. 

Individuelle Betrachtung einer kollektiven Herausforderung

Lorena Jaume-Palasí, Mitbegründerin der gemeinnützigen Organisation AlgorithmWatch und Gründerin der Ethical Tech Society berät unter anderem die Europäische Kommission für KI-Anwendung und -Regulation. Ihr Vortrag beginnt mit einer animierten Grafik: Ein Punkt bewegt sich entlang einer kurvigen Strecke. Er bewegt sich immer so weit, bis er an eine Kante stößt, sucht dann einen neuen Kurs und fängt wieder von vorne an. "Wenn Ihr Kind erst gegen alle Wände eines Zimmers laufen würde, bevor es die Tür findet, würden Sie es nicht für besonders intelligent halten", sagt Jaume-Palasí, um zu unterstreichen, dass die Systeme, von denen sie nun spricht, nicht intelligent im Sinne von menschlicher Intelligenz sind.

Frau am Rednerpult
Lorena Jaume-Palasí spricht über "KI-Systeme als ethische Herausforderung" (Foto: Philip Bartz)

Um zu erläutern, welche Schwierigkeiten es bereitet, angemessene Regularien für den Umgang mit KI-Systemen zu entwerfen, führt die Rechtsphilosophin das Publikum in die Geschichte der Gesellschaft ein: "Mit dem Aufkommen des Konstitutionalismus wurde das Einräumen von Grundrechten zum Mittel, um Macht zu legitimieren und das gesellschaftliche Zusammenleben zu regulieren." Heute betrachteten wir dagegen das Mittel als den Zweck: "Wir reden ständig von Grundrechten, aber immer aus der Perspektive des Individuums."

Die kooperative Dimension der Demokratie sei in den meisten westlichen Gesellschaften unterentwickelt, beobachtet Jaume-Palasí. Die überwiegend von einer individualistischen Perspektive geprägten Lösungsansätze, mit denen Gesellschaften sich regulieren und sich Gesetze geben, stehen ihrer Ansicht nach der Entwicklung sinnvoller Regularien für die Anwendung von KI-Systemen im Weg. "Wir haben unsere normativen Ansätze so entwickelt, dass wir nur das Individuum kennen", sagt sie. "Doch KI-Systeme kennen kein Individuum." Diese Systeme, so führt sie aus, basierten ganz im Gegensatz immer auf Durchschnitten, erstellten Kategorien. Der Bürger als Verbraucher erliege einem Irrtum, wenn er deren Leistungen als individualisierte Leistung verstünde. Was wir tatsächlich erhalten, sei vielmehr eine personalisierte Leistung im Sinne des Kollektiven – zwar eines sehr feingranularen, aber doch eines Kollektiven.

KI-Systeme anhand von Maßstäben zu bewerten, die auf methodologischem Individualismus basieren, sei so, als versuche man, den Wald zu erfassen, indem man nur die einzelnen Bäume anschaue. Für den Umgang mit KI-Systemen brauche es kollektive Bewertungsmaßstäbe.

Neue Maßstäbe in der Regulierung 

Unsere Gesellschaft, versichert Jaume-Palasí dem Publikum, besitze zumindest rudimentäre Instrumente, um kollektive Bewertungsmaßstäbe zu entwickeln. Sie vergleicht KI-Systeme mit Straßen, Einrichtungen oder Gebäuden, die unser soziales Zusammenleben auf architektonischer Ebene gestalten. Analog könne man von KI-Systemen als immaterieller Infrastruktur sprechen. Insofern könnten die europäischen Raumordnungsgesetze ein stückweit als Vorbild für Regularien im Umgang mit KI dienen. Diese geben Grundsätze vor, beispielsweise das Recht auf ein Leben in ausgeglichenen wirtschaftlichen, sozialen, ökologischen und kulturellen Verhältnissen, oder auch den Zugang zu Daseinsvorsorge, die Vielfalt, Nachhaltigkeit, Sicherheit und den sozialen Zusammenhalt.

Als Beispiel für die Anwendung dieser Grundsätze nennt Jaume-Palasí  den Einsatz anonymisierter personenbezogener sowie geografischer Daten zu Verbrechen, um Polizeipräsenz an bestimmten Orten zu planen – das sog. "predictive policing". Aus rein datenschutzrechtlicher Sicht sei diese Anwendung tatsächlich unbedenklich, so Jaume-Palasí. Doch wenn beispielsweise Angehörige des Mittelstandes oder Einzelhandels verunsichert durch die Polizeipräsenz bestimmte Orte verließen, leide die Pluralität und der soziale Zusammenhalt unter den indirekten Folgen des Einsatzes von KI.

Blick auf die Diskussionsrunde im Auditorium von Schloss Herrenhausen
Diskussionsrunde mit Moderator Christoph Kappes (li.), Lorena Jaume-Palasí und Prof. Dr. Klaus-Robert Müller (Foto: Philip Bartz)

Kosten-Nutzen-Abwägung: Daten für Assistenz, Daten als Allgemeingut?

Moderiert von Christoph Kappes, Jurist und IT-Experte, diskutierten Müller und Jaume-Palasí nach ihren Vorträgen insbesondere die Notwendigkeit der Abwägung: Welchen Nutzen möchten wir aus KI-Systemen ziehen und wieviel Daten sind wir bereit, dafür preiszugeben? Als Beispiel diente das Gesundheitssystem, in dem KI-Systeme heutzutage Ärztinnen und Ärzten assistieren. Die zusätzliche Konsultation eines KI-Systems verpflichtend zu machen, wie es laut Moderator Kappes in der Diskussion sei, hielt Klaus-Robert Müller allerdings für "fern vom Klinikalltag". Viel zu gering sei der Beitrag, den die Systeme auf dem derzeitigen Stand leisten könnten. Gerade mal ein Prozent aller deutschen Kliniken nutze KI-Systeme, ergänzte Lorena Jaume-Palasí. Das liege daran, dass zu wenige Datenkohorten für das Training der Software zur Verfügung stünden. Assistenzsysteme könnten ihre Arbeit nur leisten, wenn sie viel über uns wissen. Je mehr sie wüssten, desto besser könnten sie assistieren. "Ohne Daten keine Funktionalität", fasste die Rechtsphilosophin das Dilemma zusammen. Sollten Patientinnen und Patienten also grundsätzlich verpflichtet sein, ihre Daten im Sinne des Allgemeinwohls zur Verfügung zu stellen?

Vertrauen, Transparenz, Verantwortung

Eine Frage aus dem Publikum betraf das Problem der Vertrauenswürdigkeit. Ob ein Algorithmus vertrauenswürdig sei, sei technisch relativ einfach zu beantworten, meint Müller. Selbst ein komplexes System wie ein autonom fahrendes Fahrzeug mit all seinen Sensoren und der Software zur Interpretation der gelieferten Daten sei mithilfe der Erklär-Software, die er mitentwickelt habe, gut zu durchschauen und transparent zu machen.

Publikum
Blick ins Publikum der Leopoldina Lecture zum Thema "Künstliche Intelligenz - kontrollierte Intelligenz?" am 8. Oktober 2019 (Foto: Philip Bartz)

Jaume-Palasí zeigt eine weitere Perspektive auf: Philosophisch betrachtet basiere Vertrauen nicht auf Transparenz: "Transparenz ist die Institutionalisierung von Mistrauen." Schließlich ließen wir uns auch nicht den Joghurt erklären, bevor wir ihn kaufen, sondern vertrauen auf die Kompetenz und Autorität der Biochemikerinnen und Biochemiker in den zuständigen Kontrollinstanzen. Ihrer Ansicht nach brauche es weniger die technische Transparenz als gute Governance der Anwendung von KI-Systemen: "Der Bürger muss wissen, an wen er sich wenden kann, wenn er das Gefühl hat, dass etwas nicht gut funktioniert."

Aus dem Publikum kam zudem die Frage nach Legitimität und Nutzen des KI-gestützten Social Scoring. Weder Müller noch Jaume-Palasí geben dazu eine persönliche Bewertung ab. Jaume-Palasí gibt jedoch zu bedenken, dass Menschen nichts anderes täten als Social Scoring, wenn sie etwa auf der Einkaufsmeile ihre Mitmenschen nach deren Äußerem kategorisierten. Die Frage des Moderators, ob man Moralität in einen Algorithmus gießen könne, fand Müller "eine sehr merkwürdige Frage". Die Algorithmen trügen keinen Bias, keine Voreingenommenheit, in sich. "Das einzige was wir herausfinden, ist, welche Biase unsere Gesellschaft hat", erklärt der Informatiker. Man könne sie sogar nutzen, um subtile Voreingenommenheiten oder Vorurteile "dingfest zu machen". Jaume-Palasí stimmt ihm zu, ergänzt allerdings, dass eine KI-Software vorhandene Vorurteile auch amplifizieren könne. Beide sind sich einig, dass es letztlich um die Verantwortung der menschlichen Akteurinnen und Akteure gehe. 

Autorin: Dr. Ulrike Schneeweiß