Wo kann Künstliche Intelligenz in Pandemien helfen – und wo darf sie?

Datum

Welche Chancen und Risiken bergen Entwicklung und Einsatz von Datenbanken und Künstlicher Intelligenz (KI) beim Kampf gegen die Ausbreitung von Covid-19? Welche Strukturen sollten für künftige Szenarien geschaffen werden? Und wo schränken Gesetze und ethische Überlegungen technologische Lösungen ein?

Veranstaltungsbericht zum Herrenhäuser Forum der VolkswagenStiftung "Überwachen – Übernehmen – Überlassen? Der Einsatz Künstlicher Intelligenz in der Pandemiebekämpfung" am 25. November 2021 mit Prof. Dr. Petra Ahrweiler, Dr. Aljoscha Burchardt, Prof. Dr. Dr. Eric Hilgendorf, Prof. Dr. Judith Simon und Annette Riedel (Moderation).

Video Titel
Mann im Keller
Dr. Aljoscha Burchardt ist Mitglied der Enquete Kommission Künstliche Intelligenz am DFKI in Berlin. (Foto: VolkswagenStiftung)

Bewusstsein und maschinelles Lernen

Dr. Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin ist Mitglied der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages. Er führt zunächst in Definitionen ein: "Starke KI wäre in der Lage, Wissen zwischen Gegenstandsbereichen zu übertragen, intentional zu handeln und vielleicht sogar Bewusstsein zu entwickeln – die alte Frankenstein-Fantasie." Er beruhigt: "Das gibt es bisher nicht und ob es das je geben wird, ist umstritten." In der aktuellen Diskussion gehe es jedoch um "schwache" Künstliche Intelligenz, also um Einzelsysteme, die für einen bestimmten Zweck von Menschen mit Daten und Wissen präpariert werden. "Die jüngsten Erfolge wurden hier im Bereich des maschinellen Lernens erzielt", so Burchardt.

Statistik und Analyse

Prof. Dr. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, weist auf die großen Datenmengen hin, die gerade maschinelles Lernen bedürfe: "Es ist nicht nur wichtig, wer was damit macht, sondern auch, welche Daten gesammelt werden." Die Qualität der Daten bemesse sich auch danach, ob sie angemessen seien oder etwa verzerrt, was daraus genau abzulesen wäre. "Maschinelles Lernen ist im Grunde eine avancierte Form von Statistik", sagt Simon. Sie erläutert: "Statistische Analysen von Daten haben schon immer geholfen, Dinge zu verstehen oder Handeln zu legitimieren." Deshalb können Daten auch in einer Pandemie hilfreich sein, um evidenzbasierte Entscheidungen zu treffen.

Judith Simon in der Videokonferenz.
Prof. Dr. Judith Simon ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. (Foto: VolkswagenStiftung)

Grundrechte und Sonderbefindlichkeiten

Prof. Dr. Dr. Eric Hilgendorf, Professor für Strafrecht und Strafprozessrecht, Informationsrecht und Rechtsinformatik an der Julius-Maximilian-Universität Würzburg, wirft angesichts großer Datenmengen einen Blick auf den Datenschutz. "Geschützt wird das Recht auf informationelle Selbstbestimmung, also ein Grundrecht – und jeder Jurist weiß, Grundrechte kann man einschränken", so Hilgendorf. Er stellt für die Zeit der Covid-19-Pandemie eine "Sonderbefindlichkeit" fest: "Sie hebt den Datenschutz in Höhen, die eigentlich nur der Menschenwürde zukommen, die ja laut unserer Verfassung unantastbar ist." Schließlich seien viele andere Rechte massiv eingeschränkt worden.

Ängste und Sorgen

Prof. Dr. Petra Ahrweiler, Professorin für Technik- und Innovationssoziologie sowie Simulationsmethoden an der Johannes Gutenberg-Universität Mainz, stellt fest, die Bedenken vieler Deutscher gegenüber einem technologischen Hilfsmittel wie der Corona Warn App bezögen sich nicht nur auf datenrechtliche Einschränkungen: "In meinen Augen wäre es grundfalsch, den Diskurs darauf zu verkürzen." Obwohl die App als Angebot der Bundesregierung breit genutzt werde, gebe es in der Zivilgesellschaft berechtigte Ängste und Sorgen. Zum Vertrauen gehöre mehr als die glaubhafte Sicherheit von Daten, so Ahrweiler: "Was aus der App-Information folgt, berührt komplexe Handlungs- und Entscheidungszusammenhänge."

Verbote und Innovationen

Aljoscha Burchardt sieht Anforderungen an den Datenschutz als Innovationstreiber: "Wir müssen darüber reden, wie wir mit unseren Daten umgehen wollen und dann entsprechende Verschlüsselungstechnologien anwenden." Eine Diskussion sei gut, dürfe aber nicht zu Nichtstun führen. Burchardt erläutert: "Sonst kauft man sich die Sachen international ein – und dann sind sie nicht so, wie man sie gerne hätte." Petra Ahrweiler ergänzt: "Wir brauchen Regularien, um Innovation zu ermöglichen, wie etwa den Schutz geistigen Eigentums." Eric Hilgendorf warnt hingegen: "Wir müssen darauf achten, dass wir durch eine übertriebene Verbotshaltung Forschung nicht ins Ausland verdrängen."

Mann in einer Videokonferenz
Prof. Dr. Dr. Eric Hilgendorf hat den Lehrstuhl für Strafrecht und Strafprozessrecht, Informationsrecht und Rechtsinformatik an der Julius-Maximilian-Universität Würzburg inne. (Foto: VolkswagenStiftung)

Aufklärung und Mehrwert

Eric Hilgendorf führt seine Haltung zu juristischen Einschränkungen weiter aus: "Wir sollten Innovation nicht als verboten ansehen, wenn sie es gar nicht ist – was wir brauchen, ist Aufklärung, keine Gesetzesänderung." Wenn die Gefahren und Chancen von Künstlicher Intelligenz erst identifiziert und benannt seien, müsse informiert diskutiert und demokratisch entschieden werden. Petra Ahrweiler weist darauf hin, dass digitale Anwendungen im Gesundheitssystem oft auch das Verständnis von Berufsbildern hinterfragen: "Kann zum Beispiel ein Chat Bot zur Diagnose mehr sein als ein Informationsverarbeitungssystem?" Sie fragt nach dem Mehrwert menschlicher Kontakte: "Was ist denn ein Arzt für uns im Gespräch?"

Digitalisierung und Infrastruktur

Aljoscha Burchardt und Judith Simon sind sich einig, dass es im deutschen Gesundheitssystem noch gar nicht so sehr um Künstliche Intelligenz gehe. "Wir brauchen zunächst einfache Digitalisierung, keine ausgefuchste Technologie", sagt Burchardt und weist auf die sich zuspitzende Personalknappheit in Gesundheitsämtern hin. Einfache, regelbasierte digitale Systeme könnten Informationen automatisch prüfen und gezielt verschicken. Auch Simon plädiert für eine bessere Infrastruktur – und für eine ehrliche Analyse, welche Daten in der Pandemiebewältigung warum gefehlt haben: "Oft nutzen wir den Datenschutz nur als Sündenbock, um über verschlafene Digitalisierung hinwegzutäuschen."

Entmündigung und Experimente

Für die Entwicklung weiterführender Technologien wünscht sich Petra Ahrweiler mehr demokratische Prozesse: "Das ist häufig nur Sache von Experten, die auf einen von ihnen gesehen Bedarf antworten." Dabei seien die Risiken bei Künstlicher Intelligenz über die wirtschaftliche Ausbeutung von Daten hinaus bekannt: "Abnehmende Entscheidungsautonomie führt zu Entmündigung – wir gewöhnen uns daran, dass KI-Systeme durch komplexe Landschaften navigieren, nicht nur im Auto", so Ahrweiler. Eric Hilgendorf hält den Diskurs hingegen für zu emotional besetzt: "Wir haben eine dystopische Schere im Kopf." Er plädiert dafür, in sicheren Räumen zu experimentieren und dann erst Grenzen festzulegen.

Dr. Petra Ahrweiler
Prof. Dr. Petra Ahrweiler forscht am Institut für Soziologie, Technik- und Innovationssoziologie, Simulationsmethoden der Johannes Gutenberg-Universität Mainz- (Foto: VolkswagenStiftung)

Missbrauch und Import

Judith Simon wünscht sich Differenzierung: "Einen kritischen Blick auf Datensammeln und Überwachung sollten wir von einer prinzipiellen Innovations- und Technologiefreundlichkeit lösen." Grundsätzlich sei es aber wichtig, Regeln festzulegen, wann Infrastrukturen, die staatlichen Missbrauch ermöglichen, wieder eingeschränkt würden. Eric Hilgendorf weist auf Überwachungstechnologie hin, die wir bereitwillig aus anderen Staaten importieren – zum Beispiel in Smartphones und deren Apps. Auch Petra Ahrweiler fragt: "Welche Daten sind bei welchem Staat gut aufgehoben?" Und Aljoscha Burchardt warnt vor Datenkolonialismus: "Daten werden oft nicht dort genutzt, wo sie erhoben wurden."

Ziele und Mittel

Eric Hilgendorf weist darauf hin, dass solche Debatten nicht auf Deutschland beschränkt werden sollten: "Es drohen in Zukunft Pandemien, die noch dramatischer sind als Covid-19." Er kommt zum Schluss: "Dann müsste man in eine stärkere Überwachung einwilligen." Das einzige juristische Tabu in Deutschland sei es, die Menschenwürde einzuschränken, so Hilgendorf: "Alles andere muss abhängig von einer drohenden Gefahr betrachtet werden." Die Prüfung von Grundrechtseinschränkungen frage zunächst nach einem legitimen Ziel und dann nach einem geeigneten, erforderlichen und angemessenen Mittel. Hilgendorf räumt aber ein: "Letztlich ist das eine Frage der Ethik."

Fundamentalismus und Werte

Einen proaktiver Umgang mit Systemen Künstlicher Intelligenz mahnt Aljoscha Burchardt an: "Dass das Thema in unserem Bildungssystem kaum vorkommt, ist brandgefährlich." Eine kritische Haltung sei immerhin eine Haltung: "Aber ein Thema komplett zu ignorieren, grenzt für mich schon an Fundamentalismus." Wer jetzt den Kopf in den Sand stecke, kaufe später Ethik aus China und Datenschutz aus den USA ein. Auch Petra Ahrweiler fordert eine Entwicklung Künstlicher Intelligenz auf Grundlage demokratischer Werte in europäischen, emanzipatorischen Gesellschaften: "Wir dürfen Diskriminierung und Ausgrenzung nicht durch Technologiegestaltung in unsere Gesellschaft hineintragen."

Vorbilder und Respekt

"China ist kein mögliches Vorbild für Digitalisierung und den Umgang mit Bürgerdaten", ist sich auch Judith Simon sicher. Datenschutz sei nur eines der Grundrechte, die dort mit Füßen getreten werden. Eric Hilgendorf sieht hingegen kulturelle Faktoren als wichtigen Faktor in der Pandemiebekämpfung: "Die Erfolge in Ostasien haben auch mit einer Grundhaltung anderen Menschen gegenüber zu tun – andere anzustecken, gilt als Gesichtsverlust." China habe viele Maßnahmen umgesetzt, die in Deutschland unmöglich wären, dort jedoch weitgehend akzeptiert werden, so Hilgendorf: "Davor muss auch Respekt möglich sein."

Datenvernetzung und Entscheidungshilfen

Die Zukunft Künstlicher Intelligenz in der Pandemiebekämpfung sieht Petra Ahrweiler vor allem im Rahmen von Entscheidungshilfen für das Krisenmanagement: "Es gilt, gesundheitliche, wirtschaftliche, soziale, kulturelle und ökologische Aspekte abzuwägen." Hierfür müsse eine interdisziplinäre Vernetzung von empirischen Daten gelingen – auch als Trainingsdaten für realitätsnahe Modelle. Aljoscha Burchardt berichtet von seinen aktuellen Forschungen zum Erkennen von Fehlinformationen mit Hilfe Künstlicher Intelligenz: "Systeme können Basisfakten in Texten prüfen, kommentieren und verlinken, können auf emotionale und sachliche Anteile hinweisen." Entscheidungen zum Umgang mit einem Text müssten dann jedoch Menschen treffen.
 

Thomas Kaestle