Künstliche Intelligenz: Diagnose der Maschine - eine kluge Entscheidung?

Datum

Künstliche Intelligenz in der Medizin: Das Thema des Herrenhäuser Forums am 14. Juli 2020. In der Diskussion mit Experten und Expertinnen aus Informatik, Medizin und Recht ging es um Verantwortung und Vertrauen. Es war die erste öffentliche Veranstaltung der VolkswagenStiftung seit Beginn der Corona-Krise.

Künstliche Intelligenz in der Medizin - Fluch oder Segen? Das Herrenhäuser Forum stellt die Perspektiven von Ärzten, Patienten, Juristen und Technikern in den Fokus. (Foto: Victor Moussa - stock.adobe.com)
Künstliche Intelligenz in der Medizin - Fluch oder Segen? Das Herrenhäuser Forum stellte die Perspektiven von Ärzten, Patienten, Juristen und Technikern in den Fokus. (Foto: Victor Moussa - stock.adobe.com)

Schon der Einlass fühlte sich anders an: Nur wer sich schriftlich für die Veranstaltung registriert hatte, durfte die Türen des Xplanatoriums passieren. Unter dem Motto "Mit Abstand nah dran" nahm die VolkswagenStiftung mit einem Herrenhäuser Forum Mensch - Natur - Technik zum Thema "KI in der Medizin" ihre öffentlichen Veranstaltungen wieder auf - wenn auch für weniger Gäste als gewohnt. Die Besucher und Besucherinnen nahmen die Corona bedingten Veränderungen gelassen hin und ihre Getränke, statt an der Theke, ausnahmsweise im Saal ein. Dort standen die Stühle ungewohnt weit auseinander. "So leer habe ich diesen Saal noch nie gesehen", bemerkte Katja Ebeling, Leiterin des Veranstaltungsmanagements der VolkswagenStiftung, zum Auftakt der ausgebuchten Veranstaltung.

Moderatorin Annette Riedel vom Deutschlandfunk Kultur bat zu Beginn der Diskussion um eine Begriffsbestimmung für Künstliche Intelligenz (KI). Die lieferte Prof. Antonio Krüger, Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken. "Als KI bezeichnen wir üblicherweise Informatiksysteme, die bestimmte Leistungen des Menschen unterstützen, ersetzen oder sogar darüber hinausgehen." Die Entwicklung der Systeme orientiere sich an kognitiven Fähigkeiten des Menschen, mit denen diese Leistungen assoziiert werden. "Andere Systeme können gemeinsam mit dem Menschen neue Fähigkeiten entwickeln und im Zusammenspiel zwischen Mensch und Maschine neue Perspektiven eröffnen", ergänzt er. Wichtige Eigenschaften von KI-Systemen seien zum Beispiel die Fähigkeit, mit der Umwelt intelligent zu interagieren sowie soziale oder emotionale Intelligenz.

Wer trägt die Verantwortung?

Podium
Moderatorin Annette Riedel diskutierte mit Dr. Markus Langer (Universität des Saarlandes), Prof. Dr. Werner Nahm (Karlsruher Institut für Technologie), Dr. Fruzsina Molnár-Gábor (Heidelberger Akademie der Wissenschaften), Prof. Dr. Lars Pape (Kinderklinik der Medizinischen Hochschule Hannover) und Prof. Antonio Krüger (Deutsches Forschungszentrum für Künstliche Intelligenz, v.l.n.r.). (Foto: Patricia Kühfuss für VolkswagenStiftung)

Neuronale Netze, eine spezielle Form der KI, werden auch in der Medizin genutzt. Ihr besonderes Merkmal ist die Lernfähigkeit. "Für uns Mediziner", sagt Prof. Dr. Werner Nahm vom Karlsruher Institut für Technologie, "ist diese Software zunächst mal ein Werkzeug, mit dem wir digitale Rohdaten aus- und auch bewerten können." Die Daten stammen beispielsweise aus Laboranalysen physischen Untersuchungen oder bildgebenden Verfahren. "Neuronale Netze sind in der Lage, anhand von medizinischem Bildmaterial einen normalen von einem verdächtigen Befund zu unterscheiden", erklärte Nahm. KI-Systeme können Mediziner darin unterstützen, Informationen aus digitalen Rohdaten zu extrahieren, eine Diagnose zu stellen und die passende Therapie zu konzipieren. Prof. Dr. Lars Pape, stellvertretender Direktor der Kinderklinik der Medizinischen Hochschule Hannover, nutzt KI-basierte Prognosesoftware in der Betreuung seiner Patienten. Das System analysiert verschiedenste medizinische Daten und weist ihn frühzeitig auf mögliche Probleme und Risiken bei einzelnen Patienten hin. Er schätze die Vorteile der Technik, sagte Pape, "Aber ich muss meinen Patienten immer auch fühlen."

Und wer trägt die Verantwortung, wenn aufgrund des Ergebnisses einer KI-gestützten Datenanalyse eine falsche Diagnose gestellt oder suboptimale Behandlungen verordnet werden? Rein juristisch sei die Antwort eindeutig, sagt Dr. Fruzsina Molnár-Gábor, Nachwuchsgruppenleiterin und Medizinrechtsexpertin an der Heidelberger Akademie der Wissenschaften: "Für die Funktionsfähigkeit des Systems ist der Hersteller verantwortlich." KI-Systeme jedoch können fehlerfrei programmiert sein und technisch einwandfrei funktionieren - und trotzdem zu einer falschen Diagnose kommen. "Für die rechtliche Bewertung einer medizinischen Entscheidung zählt auch die Erfahrung und der Konsens der Mediziner", erläutert die Juristin Molnár-Gábor. Diese Kriterien seien in Algorithmen schwer zu implementieren. Vielleicht auch aus diesem Grund sah die Mehrheit der Podiumsdiskutierenden eine Rolle der KI im Pflegebereich eher darin, Verwaltungsaufgaben zu übernehmen. Den Pflegenden bliebe dann mehr Zeit für zwischenmenschliche Interaktion mit den Patienten. Die Akzeptanz für Entscheidungen einer KI sei im Verwaltungsbereich zudem höher, als wenn es um Diagnose oder Therapie eines Patienten gehe, vermutete die Juristin Molnár-Gábor.

Videomitschnitt der Veranstaltung:

Publikum der Veranstaltung
Auch im Publikum wurde Sicherheitsabstand gewahrt. (Foto: Patricia Kühfuss für VolkswagenStiftung)

Ein weiteres Problem selbstlernender Systeme ist, dass sie einen Bias entwickeln, also voreingenommen sein können. Um unvoreingenommene Entscheidungen zu treffen, brauchen sie eine möglichst große und breite Trainingsdatenmenge. Genau diese ist oft noch Mangelware. 

KI braucht mehr Transparenz

Aus dem Publikum kam die treffende Frage, ob Deutschland auf dem Gebiet der KI-Entwicklung aufgrund seiner strengen Datenschutzbestimmungen im Nachteil sei gegenüber Ländern wie den USA oder China. Die Podiumsdiskutierenden stimmten überein, dass die strengen Regeln stellenweise hinderlich sein können. Die europäische Datenschutzgrundverordnung biete aber viel Spielraum für nützliche Ausgestaltung auf Gesetzesebene, sagte Molnár-Gábor.

Einlass zur Veranstaltung
Die Teilnahme an der Veranstaltung war nur nach Anmeldung möglich. (Foto: Patricia Kühfuss für VolkswagenStiftung)

Biomediziner Nahm plädierte dafür, auf europäischer Ebene eigene Datenpools nach den hiesigen Standards anzulegen, um weniger abhängig von den US-amerikanischen Pools zu sein. Zudem kommen die medizinischen KI-Systeme heute überwiegend ausgelernt in den Markt. Das heißt, sie nutzen ihre eigentliche Stärke nicht aus, mit jeder ‘Erfahrung’ präziser zu werden. "Das Weiterlernen im klinischen Einsatz ist eine rechtliche Grauzone mit großem Regulationsbedarf," sagt Nahm. Abhilfe könne es schaffen, nicht nur Produkte sondern auch Prozesse für die medizinische Anwendung zu zertifizieren.

Key visual Themenschwerpunkt künstliche Intelligenz
Themenschwerpunkt "Künstliche Intelligenz und die Gesellschaft von morgen" der VolkswagenStiftung

KI brauche insgesamt mehr Kontrollierbarkeit, Erklärbarkeit und Transparenz, resümmierte Langer. Molnár-Gábor gab zu bedenken, dass Patienten auch nicht immer alle Gründe für die Entscheidung eines Mediziners kennen. "KI-Techniken sind vielleicht gerade deshalb als disruptiv zu bezeichnen, weil sie uns mit dieser Ungewissheit konfrontieren." Umso überraschender mag es scheinen, dass das Publikum sich an diesem Abend durchweg positiv erwartungsvoll zeigte. Die große Mehrheit versprach sich von der Anwendung KI-basierter Diagnosesysteme Fortschritte zum Nutzen der Behandelten.

Autorin: Ulrike Schneeweiß