Biometrieforschung: Verantwortungsbewusstsein für digital erfasste Körper

Datum

Welche Potenziale und Gefahren birgt die Anwendung von Biometrieforschung? Wie lässt sich der Missbrauch entsprechender Identifikationsverfahren einschränken? Das diskutierten die Teilnehmenden des Podiums bei der Leopoldina-Lecture im Oktober 2021. 

Mann am Rednerpult
Prof. Dr. Thomas Lengauer vom Max-Planck-Institut für Informatik (Foto: Philip Bartz für die Leopoldina)

Freiheit und Verantwortung

Genormte Passbilder und die Freischaltung von Mobiltelefonen durch Fingerabdruck- oder Gesichtserkennung seien naheliegende Beispiele für die Anwendung von Biometrieforschung, führte Moderator Prof. Dr. Thomas Lengauer vom Max-Planck-Institut für Informatik in Saarbrücken in das Thema ein. Spätestens seit der britische Naturforscher Francis Galton vor 130 Jahren den Grundstein für eine forensische Identifikation durch Fingerabdrücke legte, dienen biometrische Verfahren auch der Aufklärung von Verbrechen.

"Heute definiert man Biometrie auch als automatisierte Erkennung von Individuen, basierend auf biologischen und Verhaltenscharakteristika", so der Informatiker weiter. Die Möglichkeit, so zu profilieren, zu überwachen, zu bewerten und dabei sehr große Datenmengen zu nutzen, werde in autoritären Staaten auch zur Unterdrückung der Bevölkerung genutzt: "Die Risiken entwickeln sich mit der Forschung dynamisch weiter." Die Beachtung ethischer Prinzipien im komplexen Spannungsfeld von Freiheit und Verantwortung werde dabei immer bedeutsamer. Die Nationale Akademie der Wissenschaften Leopoldina habe deshalb mit der Deutschen Forschungsgesellschaft den 'Gemeinsamen Ausschuss zum Umgang mit sicherheitsrelevanter Forschung' ins Leben gerufen.

Frau am Rednerpult
Dr. Jessica Heesen vom Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen (Foto: Philip Bartz für die Leopoldina)

Anonymität und Überwachung

"Wie gehen wir eigentlich im Internet mit unseren Körpern um?", fragte PD Dr. Jessica Heesen in ihrem Impulsvortrag. Sie leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. Biometrische Daten über unsere Körper fänden zunehmend Eingang in den digitalen Raum, der doch eigentlich als körperlos wahrgenommen werde, so Heesen. Anfangs sei damit die Vorstellung von Freiheit und Anonymität verbunden gewesen. Heute werde jedoch deutlich, dass Algorithmen über Sichtbarkeit und Repräsentation in der Internetkommunikation entscheiden und damit das Risiko von Diskriminierung bergen: "Künstliche Intelligenz braucht Trainingsdaten, um errechnen zu können, wie zum Beispiel der Kopf eines hell- oder dunkelhäutigen Menschen aussieht."

Zugleich wies die Wissenschaftsethikerin auf die Gefahren einer immer totaleren digitalen Erfassung von Körpern durch biometrische Verfahren hin. Zurzeit seien die Taliban technisch noch nicht in der Lage, die erbeutete Biometrie-Datenbank der afghanischen Verwaltung gegen die Bevölkerung nutzen zu können: "Aber das ist ein tickende Bombe", so Heesen. Chinas Modellprojekt eines Sozialkreditsystems, das Menschen aufgrund ihres Verhaltens zum Beispiel im Straßenverkehr in gute und schlechte Bürger klassifiziere und dafür auch eine automatische biometrische Erfassung durch öffentliche Kameras nutze, finde hingegen angeblich durchaus Anklang in der Bevölkerung. Der Vorschlag der Europäischen Kommission zur Regulierung von Künstlicher Intelligenz und damit auch biometrischer Erfassung will solche intelligenten Videoüberwachungssysteme verhindern – formuliert aber Ausnahmen wie die gezielte Suche nach Vermissten oder die Verhinderung von lebensbedrohenden Gefährdungen und Terrorismus.

Mann am Rednerpult
Prof. Dr. Christoph Busch vom Fachbereich Informatik an der Hochschule Darmstadt (Foto: Philip Bartz für die Leopoldina)

Verzerrung und Statistik

Um Repräsentation ging es auch Prof. Dr. Christoph Busch, der System Development im Fachbereich Informatik an der Hochschule Darmstadt lehrt und die Biometrieforschung an der Norwegian University of Science and Technology in Trondheim leitet. Er fragte nach Fairness in der Biometrie angesichts eines demographischen Bias, also einer Verzerrung, die bestimmte Bevölkerungsgruppen benachteiligt. "Das ist etwas, das uns alle bewegt", gestand Busch zu, fragte aber auch: "Welche demographischen Gruppen muss ein Algorithmus gleichberechtigt abdecken?" Alter, Geschlecht und Ethnie gelte es statistisch repräsentativ in Datenbanken einzuspeisen. Erkennungsfehler unterliefen einer Künstlichen Intelligenz ebenso wie einem Menschen, bei schlechter Beleuchtung oder gealterten Gesichtern zum Beispiel.

Assistenz und Transparenz

Er stellte möglichen Fehlerquellen biometrischer Erfassung deren Nutzen gegenüber. Die Identifizierung zwecks Zugangskontrolle durch Wissen (wie Passwörter) oder Gegenstände (wie Pässe) werde deutlich sicherer durch einen biometrischen Faktor, der nicht weitergegeben werden kann. "Ein Algorithmus ermüdet nicht", ergänzte der Biometrieexperte. Er plädierte außerdem für einen verantwortlichen Einsatz von Künstlicher Intelligenz: "Es geht nicht um Automatisierung, sondern um Assistenzsysteme." Wichtig seien außerdem internationale Standardisierung, transparente Algorithmen und ein breit geführter Diskurs, um Vertrauen herzustellen. Privacy by Design, also Datenschutz durch Technikgestaltung bedeute auch, Datenquellen wie Kamerabilder nur dann gezielt mit Datenbanken zu vernetzen, wenn zum Beispiel eine Gefahrensituation dies rechtfertige.

Gendaten und Fernerfassung

Thomas Lengauer fragte in der Diskussion, warum bestimmte Aspekte der Biometrie aktuell so viel stärker hinterfragt würden: "Die genetische Charakterisierung von Menschen scheint besser akzeptiert zu werden als deren Fernerfassung." Jessica Heesen verwies darauf, dass die Erfassung von Gendaten bereits gut reguliert und verhandelt sei. Fernerfassung sei hingegen in vielen Aspekten noch unreguliert und verbreite sich schnell in alltäglichen Zusammenhängen: "Menschen können sogar an der Art erkannt werden, in der sie die Tasten an ihrem Computer drücken." Startup-Unternehmen drängten mit biometrischen Anwendungen auf den Markt und viele Entwicklungen ließen sich im Internet selbst ausprobieren. Christoph Busch ergänzte, DNA-Analyse und medizinisch relevante Daten würden in der Europäischen Datenschutz-Grundverordnung bereits thematisiert.

Drei Menschen auf einem Podium
Podiumsdiskussion mit Dr. Jessica Heesen, Prof. Dr. Christoph Busch (r.) und Prof. Dr. Thomas Lengauer (Foto: Philip Bartz für die Leopoldina)

Gleichbehandlung und Chancengleichheit

Die häufige Verwendung des Begriffs der Fairness im Diskurs um Biometrie ließ Thomas Lengauer hinterfragen, ob dieser geeignet sei: "Fairness ist für mich ein politisches Konstrukt und wird subjektiv durch die jeweilige Referenzmenge codiert." Es sei nun einmal ein natürliches Bedürfnis des Menschen, fair behandelt zu werden, warf Christoph Busch ein, dabei gehe es aber eben um Proporz: "Wir müssen durch Kommunikation zu guten Kompromissen finden." Fairness stehe in der Informatik meist als Verkürzung des Konzeptes der Gerechtigkeit, ergänzte Jessica Heesen: "Fairness ist Chancengleichheit, nicht Gleichbehandlung – manche brauchen mehr, damit sie die gleiche Chance haben." Es gehe um die Möglichkeit, selbst vorzukommen und sich zu beteiligen, so Heesen weiter: "Wir werden aber nie vollständige Fairness herstellen können."

Abschreckung und Aufklärung

In der Publikumsdiskussion ging es zunächst um den Zweck von Überwachung: Aufklärung von Verbrechen oder deren Verhinderung? Funktioniert die Abschreckung durch sichtbare Kameras? Christoph Busch plädierte für eine Unterstützung der Behörden: "Wir haben sehr hohe Erwartungen an die Leistung der Polizei – die Gesellschaft muss über deren technische Möglichkeiten entscheiden, aber dann auch mit den Folgen leben." Abschreckung funktioniere in der Regel nur an konkreten Orten, so Jessica Heesen: "Kriminalität wird verlagert oder verdrängt, aber nicht verringert." Sie pflichtete Busch aber bei, was die Aufklärung betrifft: "Gerechtigkeit ist wichtig für eine demokratische Gesellschaft."

Blick aus dem Auditorium auf die Bühne
Das Auditorium im Tagungszentrum Schloss Herrenhausen (Foto: Philip Bartz für die Leopoldina)

Entwicklungen und Verbote

Das Publikum beschäftigten zudem etliche Aspekte des Umgangs mit Datenschutz. Christoph Busch war sich sicher: "Privatheit und vertrauliche Kommunikation sind Grundrechte, die wir nicht aufgeben können – aber auch nicht aufgeben müssen." Die Entwicklung der Technik gefährde diese Dinge nicht nur, sie könne auch bei deren Schutz mithalten. Wichtig sei unter anderem, biometrische Referenzdaten an ihren Speicherorten verschlüsselt zu transformieren. Da es beim Datenschutz um Freiheitsrechte gehe, müsse bei Hochrisikotechnologien auch über Verbote nachgedacht werden, so Jessica Heesen: "Einige Anwendungen dürfen nicht demokratisiert und verfügbar gemacht werden." Der Konzern Google habe sich bereits aktiv gegen Funktionen entschieden, die technisch möglich wären – zum Beispiel eine Gesichtserkennung für alle Nutzer.

Kontrolle und Gemeinwohl

Sie plädierte auch dafür, dass große Konzerne ihre Forschungen und Algorithmen der Wissenschaft zur Verfügung stellen: "Es geht dabei um Kontrolle und Gemeinwohlorientierung." Der Gesetzentwurf eines europäischen Digital Services Act sehe Vergleichbares vor. Angesichts anderer Maßstäbe in Teilen einer globalisierten Welt forderte sie eine europäische Eigenständigkeit in der Entwicklung von Technologien: "Wir müssen ja unsere Wertesysteme nicht aufgeben, weil die woanders anders sind." Wertepluralität müsse sich in der Pluralität technischer Angebote widerspiegeln. Auch Christoph Busch sprach sich für europäische Technologie aus – aus Transparenzgründen: "Man kann solchen Entwicklungen besser unter die Haube schauen."

Ausbildung und Ethik

Zum Abschluss fragte Thomas Lengauer: "Wie versetzt man Wissenschaftler in die Lage, verantwortungsvoll zu forschen?" Jessica Heesen forderte, ethische Aspekte in der Ausbildung stärker zu thematisieren und interdisziplinäre Forschung besser zu fördern. Christoph Busch sagte, er konfrontiere seine Studierenden stets mit Verantwortung: "Sie sollen die Frage verinnerlichen, was sie mit ihrer Forschung bewirken." In Norwegen sei jeder Doktorand zu einer Belegung des Fachs Ethik verpflichtet. Lengauer forderte schließlich, Bewusstseinsbildung nicht nur ergänzend zu lehren: "Ethik muss in jeder Vorlesung zu maschinellem Lernen vorkommen."

Autor: Thomas Kaestle