
Schon der Einlass fühlte sich anders an: Nur wer sich schriftlich für die Veranstaltung registriert hatte, durfte die Türen des Xplanatoriums passieren. Unter dem Motto "Mit Abstand nah dran" nahm die VolkswagenStiftung mit einem Herrenhäuser Forum Mensch - Natur - Technik zum Thema "KI in der Medizin" ihre öffentlichen Veranstaltungen wieder auf - wenn auch für weniger Gäste als gewohnt. Die Besucher und Besucherinnen nahmen die Corona bedingten Veränderungen gelassen hin und ihre Getränke, statt an der Theke, ausnahmsweise im Saal ein. Dort standen die Stühle ungewohnt weit auseinander. "So leer habe ich diesen Saal noch nie gesehen", bemerkte Katja Ebeling, Leiterin des Veranstaltungsmanagements der VolkswagenStiftung, zum Auftakt der ausgebuchten Veranstaltung.
Moderatorin Annette Riedel vom Deutschlandfunk Kultur bat zu Beginn der Diskussion um eine Begriffsbestimmung für Künstliche Intelligenz (KI). Die lieferte Prof. Antonio Krüger, Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken. "Als KI bezeichnen wir üblicherweise Informatiksysteme, die bestimmte Leistungen des Menschen unterstützen, ersetzen oder sogar darüber hinausgehen." Die Entwicklung der Systeme orientiere sich an kognitiven Fähigkeiten des Menschen, mit denen diese Leistungen assoziiert werden. "Andere Systeme können gemeinsam mit dem Menschen neue Fähigkeiten entwickeln und im Zusammenspiel zwischen Mensch und Maschine neue Perspektiven eröffnen", ergänzt er. Wichtige Eigenschaften von KI-Systemen seien zum Beispiel die Fähigkeit, mit der Umwelt intelligent zu interagieren sowie soziale oder emotionale Intelligenz.
Wer trägt die Verantwortung?

Neuronale Netze, eine spezielle Form der KI, werden auch in der Medizin genutzt. Ihr besonderes Merkmal ist die Lernfähigkeit. "Für uns Mediziner", sagt Prof. Dr. Werner Nahm vom Karlsruher Institut für Technologie, "ist diese Software zunächst mal ein Werkzeug, mit dem wir digitale Rohdaten aus- und auch bewerten können." Die Daten stammen beispielsweise aus Laboranalysen physischen Untersuchungen oder bildgebenden Verfahren. "Neuronale Netze sind in der Lage, anhand von medizinischem Bildmaterial einen normalen von einem verdächtigen Befund zu unterscheiden", erklärte Nahm. KI-Systeme können Mediziner darin unterstützen, Informationen aus digitalen Rohdaten zu extrahieren, eine Diagnose zu stellen und die passende Therapie zu konzipieren. Prof. Dr. Lars Pape, stellvertretender Direktor der Kinderklinik der Medizinischen Hochschule Hannover, nutzt KI-basierte Prognosesoftware in der Betreuung seiner Patienten. Das System analysiert verschiedenste medizinische Daten und weist ihn frühzeitig auf mögliche Probleme und Risiken bei einzelnen Patienten hin. Er schätze die Vorteile der Technik, sagte Pape, "Aber ich muss meinen Patienten immer auch fühlen."
Und wer trägt die Verantwortung, wenn aufgrund des Ergebnisses einer KI-gestützten Datenanalyse eine falsche Diagnose gestellt oder suboptimale Behandlungen verordnet werden? Rein juristisch sei die Antwort eindeutig, sagt Dr. Fruzsina Molnár-Gábor, Nachwuchsgruppenleiterin und Medizinrechtsexpertin an der Heidelberger Akademie der Wissenschaften: "Für die Funktionsfähigkeit des Systems ist der Hersteller verantwortlich." KI-Systeme jedoch können fehlerfrei programmiert sein und technisch einwandfrei funktionieren - und trotzdem zu einer falschen Diagnose kommen. "Für die rechtliche Bewertung einer medizinischen Entscheidung zählt auch die Erfahrung und der Konsens der Mediziner", erläutert die Juristin Molnár-Gábor. Diese Kriterien seien in Algorithmen schwer zu implementieren. Vielleicht auch aus diesem Grund sah die Mehrheit der Podiumsdiskutierenden eine Rolle der KI im Pflegebereich eher darin, Verwaltungsaufgaben zu übernehmen. Den Pflegenden bliebe dann mehr Zeit für zwischenmenschliche Interaktion mit den Patienten. Die Akzeptanz für Entscheidungen einer KI sei im Verwaltungsbereich zudem höher, als wenn es um Diagnose oder Therapie eines Patienten gehe, vermutete die Juristin Molnár-Gábor.
Videomitschnitt der Veranstaltung:
Externe Inhalte anzeigen
Um Ihre personenbezogenen Daten zu schützen, haben wir das automatische Laden externer Inhalte blockiert (z. B. Videos von Youtube oder Vimeo). Um diese Inhalte anzuzeigen, benötigen wir Ihre Zustimmung:
Ihre Zustimmung können Sie unter Datenschutzhinweise widerrufen.

Patienten vertrauen dem Arzt - vertrauen Ärzte der KI?
"Ich sehe und fühle die Verantwortung für eine Entscheidung immer bei mir", betonte Lars Pape. Die Patientinnen und Patienten vertrauten schließlich ihm als Person. Wie steht es also um das Vertrauensverhältnis zwischen Behandelnden und Behandelten, wenn KI in der Diagnose zum Einsatz kommt? Die Mehrheit des Publikums an diesem Abend, darunter auch medizinisches Fachpersonal, erwarteten für den Dialog zwischen Behandelnden und Behandelten keine Veränderung. Rechtlich und gesellschaftlich sei es ein großer Unterschied, sagte Mólnar-Gábor, "ob die KI den Mediziner in der Entscheidungsfindung nur unterstützt oder ob sie künftig einzelne Schritte eigenverantwortlich übernimmt." Dass ärztliches Fachpersonal KI als mehr als nur ein zusätzliches Werkzeug einsetzen, setzt voraus, dass sie der Software hinreichend vertrauen. Hier zeigt sich eine Schwäche der KI-Algorithmen wie zum Beispiel neuronaler Netze: Wie sie zu einem Ergebnis gelangen, ist selbst für Entwickelnde eines solchen Systems nicht nachvollziehbar, geschweige denn für Anwendende oder Behandelte. "Die offene Frage nach dem ‘warum’ ist häufig Grund für mangelnde Akzeptanz von KI-Systemen unter Medizinern" sagte der Arbeits- und Organisationspsychologe Dr. Markus Langer von der Universität des Saarlandes. "Je weniger der Arzt das System kennt, je undurchsichtiger es für ihn ist, desto eher sucht er beim System nach der Verantwortung für Fehler."
Ein weiteres Problem selbstlernender Systeme ist, dass sie einen Bias entwickeln, also voreingenommen sein können. Um unvoreingenommene Entscheidungen zu treffen, brauchen sie eine möglichst große und breite Trainingsdatenmenge. Genau diese ist oft noch Mangelware.
KI braucht mehr Transparenz
Aus dem Publikum kam die treffende Frage, ob Deutschland auf dem Gebiet der KI-Entwicklung aufgrund seiner strengen Datenschutzbestimmungen im Nachteil sei gegenüber Ländern wie den USA oder China. Die Podiumsdiskutierenden stimmten überein, dass die strengen Regeln stellenweise hinderlich sein können. Die europäische Datenschutzgrundverordnung biete aber viel Spielraum für nützliche Ausgestaltung auf Gesetzesebene, sagte Molnár-Gábor.

Biomediziner Nahm plädierte dafür, auf europäischer Ebene eigene Datenpools nach den hiesigen Standards anzulegen, um weniger abhängig von den US-amerikanischen Pools zu sein. Zudem kommen die medizinischen KI-Systeme heute überwiegend ausgelernt in den Markt. Das heißt, sie nutzen ihre eigentliche Stärke nicht aus, mit jeder ‘Erfahrung’ präziser zu werden. "Das Weiterlernen im klinischen Einsatz ist eine rechtliche Grauzone mit großem Regulationsbedarf," sagt Nahm. Abhilfe könne es schaffen, nicht nur Produkte sondern auch Prozesse für die medizinische Anwendung zu zertifizieren.

KI brauche insgesamt mehr Kontrollierbarkeit, Erklärbarkeit und Transparenz, resümmierte Langer. Molnár-Gábor gab zu bedenken, dass Patienten auch nicht immer alle Gründe für die Entscheidung eines Mediziners kennen. "KI-Techniken sind vielleicht gerade deshalb als disruptiv zu bezeichnen, weil sie uns mit dieser Ungewissheit konfrontieren." Umso überraschender mag es scheinen, dass das Publikum sich an diesem Abend durchweg positiv erwartungsvoll zeigte. Die große Mehrheit versprach sich von der Anwendung KI-basierter Diagnosesysteme Fortschritte zum Nutzen der Behandelten.
Autorin: Ulrike Schneeweiß