Externe Inhalte anzeigen
Um Ihre personenbezogenen Daten zu schützen, haben wir das automatische Laden externer Inhalte blockiert (z. B. Videos von Youtube oder Vimeo). Um diese Inhalte anzuzeigen, benötigen wir Ihre Zustimmung:
Ihre Zustimmung können Sie unter Datenschutzhinweise widerrufen.

Gesundheitsschutz und Datenschutz
Moderatorin Annette Riedel spitzt das Thema des Herrenhäuser Online-Forums einführend als Abwägung zu: "Sind wir bereit, Gesundheitsschutz ein bisschen größer zu schreiben und dafür Datenschutz ein bisschen kleiner?" Gemeinsam mit dem Radiosender Deutschlandfunk Kultur, den Riedel vertritt, fragt die VolkswagenStiftung nach Zusammenhängen zwischen zwei interdisziplinären Forschungsbereichen, die aus unterschiedlichen Gründen schnell an Bedeutung gewinnen. Zum einen vereint der Kampf gegen die Covid-19-Pandemie und ihre medizinischen, sozialen oder ökonomischen Folgen Natur- und Geisteswissenschaften in der Entwicklung von Bewältigungsstrategien für große gesellschaftliche Herausforderungen.
Corona-Krise und Künstliche Intelligenz
Zum anderen bündelt die Entwicklung von Technologien, die auf Künstlicher Intelligenz beruhen, Ansätze aus Gesellschafts- und Technikwissenschaften. Die VolkswagenStiftung fördert beide Forschungsfelder: in den Initiativen "Corona Crisis and Beyond – Perspectives for Science, Scholarship and Society" und "Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen". Annette Riedel fragt, wie KI in der Pandemiebekämpfung zum Einsatz kommt und kommen könnte, wie sie bei Sammeln, Verwaltung und Analyse von Daten menschliche Ressourcen schonen und sogar Vorhersagen ermöglichen könnte – aber auch nach Grenzen und zulässigen Ausmaßen von Kontrolle und Überwachung.

Bewusstsein und maschinelles Lernen
Dr. Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin ist Mitglied der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages. Er führt zunächst in Definitionen ein: "Starke KI wäre in der Lage, Wissen zwischen Gegenstandsbereichen zu übertragen, intentional zu handeln und vielleicht sogar Bewusstsein zu entwickeln – die alte Frankenstein-Fantasie." Er beruhigt: "Das gibt es bisher nicht und ob es das je geben wird, ist umstritten." In der aktuellen Diskussion gehe es jedoch um "schwache" Künstliche Intelligenz, also um Einzelsysteme, die für einen bestimmten Zweck von Menschen mit Daten und Wissen präpariert werden. "Die jüngsten Erfolge wurden hier im Bereich des maschinellen Lernens erzielt", so Burchardt.
Statistik und Analyse
Prof. Dr. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, weist auf die großen Datenmengen hin, die gerade maschinelles Lernen bedürfe: "Es ist nicht nur wichtig, wer was damit macht, sondern auch, welche Daten gesammelt werden." Die Qualität der Daten bemesse sich auch danach, ob sie angemessen seien oder etwa verzerrt, was daraus genau abzulesen wäre. "Maschinelles Lernen ist im Grunde eine avancierte Form von Statistik", sagt Simon. Sie erläutert: "Statistische Analysen von Daten haben schon immer geholfen, Dinge zu verstehen oder Handeln zu legitimieren." Deshalb können Daten auch in einer Pandemie hilfreich sein, um evidenzbasierte Entscheidungen zu treffen.

Grundrechte und Sonderbefindlichkeiten
Prof. Dr. Dr. Eric Hilgendorf, Professor für Strafrecht und Strafprozessrecht, Informationsrecht und Rechtsinformatik an der Julius-Maximilian-Universität Würzburg, wirft angesichts großer Datenmengen einen Blick auf den Datenschutz. "Geschützt wird das Recht auf informationelle Selbstbestimmung, also ein Grundrecht – und jeder Jurist weiß, Grundrechte kann man einschränken", so Hilgendorf. Er stellt für die Zeit der Covid-19-Pandemie eine "Sonderbefindlichkeit" fest: "Sie hebt den Datenschutz in Höhen, die eigentlich nur der Menschenwürde zukommen, die ja laut unserer Verfassung unantastbar ist." Schließlich seien viele andere Rechte massiv eingeschränkt worden.
Ängste und Sorgen
Prof. Dr. Petra Ahrweiler, Professorin für Technik- und Innovationssoziologie sowie Simulationsmethoden an der Johannes Gutenberg-Universität Mainz, stellt fest, die Bedenken vieler Deutscher gegenüber einem technologischen Hilfsmittel wie der Corona Warn App bezögen sich nicht nur auf datenrechtliche Einschränkungen: "In meinen Augen wäre es grundfalsch, den Diskurs darauf zu verkürzen." Obwohl die App als Angebot der Bundesregierung breit genutzt werde, gebe es in der Zivilgesellschaft berechtigte Ängste und Sorgen. Zum Vertrauen gehöre mehr als die glaubhafte Sicherheit von Daten, so Ahrweiler: "Was aus der App-Information folgt, berührt komplexe Handlungs- und Entscheidungszusammenhänge."
Verbote und Innovationen
Aljoscha Burchardt sieht Anforderungen an den Datenschutz als Innovationstreiber: "Wir müssen darüber reden, wie wir mit unseren Daten umgehen wollen und dann entsprechende Verschlüsselungstechnologien anwenden." Eine Diskussion sei gut, dürfe aber nicht zu Nichtstun führen. Burchardt erläutert: "Sonst kauft man sich die Sachen international ein – und dann sind sie nicht so, wie man sie gerne hätte." Petra Ahrweiler ergänzt: "Wir brauchen Regularien, um Innovation zu ermöglichen, wie etwa den Schutz geistigen Eigentums." Eric Hilgendorf warnt hingegen: "Wir müssen darauf achten, dass wir durch eine übertriebene Verbotshaltung Forschung nicht ins Ausland verdrängen."

Aufklärung und Mehrwert
Eric Hilgendorf führt seine Haltung zu juristischen Einschränkungen weiter aus: "Wir sollten Innovation nicht als verboten ansehen, wenn sie es gar nicht ist – was wir brauchen, ist Aufklärung, keine Gesetzesänderung." Wenn die Gefahren und Chancen von Künstlicher Intelligenz erst identifiziert und benannt seien, müsse informiert diskutiert und demokratisch entschieden werden. Petra Ahrweiler weist darauf hin, dass digitale Anwendungen im Gesundheitssystem oft auch das Verständnis von Berufsbildern hinterfragen: "Kann zum Beispiel ein Chat Bot zur Diagnose mehr sein als ein Informationsverarbeitungssystem?" Sie fragt nach dem Mehrwert menschlicher Kontakte: "Was ist denn ein Arzt für uns im Gespräch?"
Digitalisierung und Infrastruktur
Aljoscha Burchardt und Judith Simon sind sich einig, dass es im deutschen Gesundheitssystem noch gar nicht so sehr um Künstliche Intelligenz gehe. "Wir brauchen zunächst einfache Digitalisierung, keine ausgefuchste Technologie", sagt Burchardt und weist auf die sich zuspitzende Personalknappheit in Gesundheitsämtern hin. Einfache, regelbasierte digitale Systeme könnten Informationen automatisch prüfen und gezielt verschicken. Auch Simon plädiert für eine bessere Infrastruktur – und für eine ehrliche Analyse, welche Daten in der Pandemiebewältigung warum gefehlt haben: "Oft nutzen wir den Datenschutz nur als Sündenbock, um über verschlafene Digitalisierung hinwegzutäuschen."
Entmündigung und Experimente
Für die Entwicklung weiterführender Technologien wünscht sich Petra Ahrweiler mehr demokratische Prozesse: "Das ist häufig nur Sache von Experten, die auf einen von ihnen gesehen Bedarf antworten." Dabei seien die Risiken bei Künstlicher Intelligenz über die wirtschaftliche Ausbeutung von Daten hinaus bekannt: "Abnehmende Entscheidungsautonomie führt zu Entmündigung – wir gewöhnen uns daran, dass KI-Systeme durch komplexe Landschaften navigieren, nicht nur im Auto", so Ahrweiler. Eric Hilgendorf hält den Diskurs hingegen für zu emotional besetzt: "Wir haben eine dystopische Schere im Kopf." Er plädiert dafür, in sicheren Räumen zu experimentieren und dann erst Grenzen festzulegen.

Missbrauch und Import
Judith Simon wünscht sich Differenzierung: "Einen kritischen Blick auf Datensammeln und Überwachung sollten wir von einer prinzipiellen Innovations- und Technologiefreundlichkeit lösen." Grundsätzlich sei es aber wichtig, Regeln festzulegen, wann Infrastrukturen, die staatlichen Missbrauch ermöglichen, wieder eingeschränkt würden. Eric Hilgendorf weist auf Überwachungstechnologie hin, die wir bereitwillig aus anderen Staaten importieren – zum Beispiel in Smartphones und deren Apps. Auch Petra Ahrweiler fragt: "Welche Daten sind bei welchem Staat gut aufgehoben?" Und Aljoscha Burchardt warnt vor Datenkolonialismus: "Daten werden oft nicht dort genutzt, wo sie erhoben wurden."
Ziele und Mittel
Eric Hilgendorf weist darauf hin, dass solche Debatten nicht auf Deutschland beschränkt werden sollten: "Es drohen in Zukunft Pandemien, die noch dramatischer sind als Covid-19." Er kommt zum Schluss: "Dann müsste man in eine stärkere Überwachung einwilligen." Das einzige juristische Tabu in Deutschland sei es, die Menschenwürde einzuschränken, so Hilgendorf: "Alles andere muss abhängig von einer drohenden Gefahr betrachtet werden." Die Prüfung von Grundrechtseinschränkungen frage zunächst nach einem legitimen Ziel und dann nach einem geeigneten, erforderlichen und angemessenen Mittel. Hilgendorf räumt aber ein: "Letztlich ist das eine Frage der Ethik."
Fundamentalismus und Werte
Einen proaktiver Umgang mit Systemen Künstlicher Intelligenz mahnt Aljoscha Burchardt an: "Dass das Thema in unserem Bildungssystem kaum vorkommt, ist brandgefährlich." Eine kritische Haltung sei immerhin eine Haltung: "Aber ein Thema komplett zu ignorieren, grenzt für mich schon an Fundamentalismus." Wer jetzt den Kopf in den Sand stecke, kaufe später Ethik aus China und Datenschutz aus den USA ein. Auch Petra Ahrweiler fordert eine Entwicklung Künstlicher Intelligenz auf Grundlage demokratischer Werte in europäischen, emanzipatorischen Gesellschaften: "Wir dürfen Diskriminierung und Ausgrenzung nicht durch Technologiegestaltung in unsere Gesellschaft hineintragen."
Vorbilder und Respekt
"China ist kein mögliches Vorbild für Digitalisierung und den Umgang mit Bürgerdaten", ist sich auch Judith Simon sicher. Datenschutz sei nur eines der Grundrechte, die dort mit Füßen getreten werden. Eric Hilgendorf sieht hingegen kulturelle Faktoren als wichtigen Faktor in der Pandemiebekämpfung: "Die Erfolge in Ostasien haben auch mit einer Grundhaltung anderen Menschen gegenüber zu tun – andere anzustecken, gilt als Gesichtsverlust." China habe viele Maßnahmen umgesetzt, die in Deutschland unmöglich wären, dort jedoch weitgehend akzeptiert werden, so Hilgendorf: "Davor muss auch Respekt möglich sein."
Datenvernetzung und Entscheidungshilfen
Die Zukunft Künstlicher Intelligenz in der Pandemiebekämpfung sieht Petra Ahrweiler vor allem im Rahmen von Entscheidungshilfen für das Krisenmanagement: "Es gilt, gesundheitliche, wirtschaftliche, soziale, kulturelle und ökologische Aspekte abzuwägen." Hierfür müsse eine interdisziplinäre Vernetzung von empirischen Daten gelingen – auch als Trainingsdaten für realitätsnahe Modelle. Aljoscha Burchardt berichtet von seinen aktuellen Forschungen zum Erkennen von Fehlinformationen mit Hilfe Künstlicher Intelligenz: "Systeme können Basisfakten in Texten prüfen, kommentieren und verlinken, können auf emotionale und sachliche Anteile hinweisen." Entscheidungen zum Umgang mit einem Text müssten dann jedoch Menschen treffen.
Thomas Kaestle