Veranstaltungsberichte

Brain-Computer-Interfaces: Verschwimmen bald die Grenzen zwischen Mensch und Maschine?

#Künstliche Intelligenz

Ulrike Schneeweiß

Schnittstellen zwischen Gehirn und Computern werden immer leistungsfähiger. Doch was passiert, wenn Maschinen unsere Absichten beeinflussen? Darüber diskutierten Forschende bei der Leopoldina Lecture am 24. Mai 2023 im Xplanatorium Herrenhausen. 

Der Begriff Brain-Computer-Interface bezeichnet die Schnittstelle zwischen menschlichem Gehirn und Computer. Diese Neurotechnologie birgt bahnbrechendes Potential, z.B. um Mobilität und Kommunikation zu verbessern oder Fahrzeuge zu steuern. Dank intensiver Forschung verbessert sich die Zuverlässigkeit der ausgelesenen Daten fortwährend. Mittels nicht-invasivem Elektro-Enzephalogramm (EEG) oder der Implantation von Elektroden können aber auch Intentionen verschiedener Art ausgelesen werden. Wird die Technologie eines Tages unsere Gedanken erfassen oder sogar beeinflussen?

Prof. Thomas Lengauer, Bioinformatiker und Vorsitzender des ‘Gemeinsamen Ausschusses zum Umgang mit sicherheitsrelevanter Forschung’ von DFG und Leopoldina, eröffnete den Abend. Er erläuterte, warum Technologien an der Schnittstelle zwischen Hirn und Computer (Brain-Computer-Interfaces, BCIs) sicherheitsrelevant sind: "Die Technologien bergen Potential für nützliche Zwecke wie auch für Missbrauch." Mit ihrer Hilfe lassen sich im Gehirn gemessene Absichten eines Menschen in spezifische Aktionen übersetzen - etwa die Bewegung einer Prothese. Sie helfen, allein durch Gedanken einen Text zu verfassen. Medizinische Anwendungen brächten bahnbrechende Chancen für geschädigte Menschen, wieder mit der Umwelt interagieren zu können.

Er erwarte aber auch, dass Anwendungen in Unterhaltung oder Maschinensteuerung in naher Zukunft den Weg in unsere Lebens- und Arbeitswelt fänden. "Und die Risiken, die sie mit sich bringen, entwickeln sich dynamisch weiter", sagte Lengauer. In der Diskussion um den Einsatz von BCI-Technologien seien deshalb Fragen der Forschungsfreiheit ebenso zu beachten wie ethische und rechtsstaatliche Prinzipien sowie Menschenrechte. 
 

Künstliche Intelligenz entschlüsselt Signale

Der Neuroinformatiker und Leibniz-Preisträger Prof. Helge Ritter von der Universität Bielefeld führte die Zuhörenden in verschiedene Methoden ein, Vorgänge im Gehirn zu beobachten. Zu den nicht-invasiven Verfahren zählen die Elektroenzephalographie (EEG) und die funktionale Magnetresonanztomographie (fMRT). Letztere ist langsamer, ergibt aber ein dreidimensionales Bild von Aktivitäten in verschiedenen Hirnarealen. Zudem gibt es invasive Beobachtungsmethoden, bei denen Elektroden auf der Großhirnrinde angebracht oder bis ins Gehirn gestochen werden, wo sie elektrische Signale der Nerven abgreifen. 

Um die Bedeutung der aufgenommenen Signale zu verstehen, nutzt man heute zunehmend Künstliche Intelligenz (KI). Sie übersetzt die gemessenen elektrischen Ströme oder Blutflüsse in Bilder oder in Worte, die die untersuchten Menschen im Kopf hatten. Ritter und der Neurologe Dr. Philipp Kellmeyer vom Universitätsklinikum Freiburg zeigten veröffentlichte Beispiele von Bildern sowie von Worten oder ganzen Sätze, die auf diese Weise rekonstruiert werden konnten. "Die Verfälschungen sind ja noch grandios", kommentierte Thomas Lengauer die Worterkennung der KI aus Gehirnsignalen. "Aber: Da ist etwas im Gange."

Mann spricht mit MIkro in der Hand

Dr. Philipp Kellmeyer sagt, die Weiterentwicklung der Technologien sei allerdings "äußerst komplex".

Signale ins Gehirn senden

Im nächsten Schritt werden nun bidirektionale Schnittstellen entwickelt, die auch Signale von außen in das Gehirn hinein übertragen, sagte Ritter. Als Beispiel nannte er Prothesen, die Informationen über Berührungen ans Gehirn senden. Ein Vorläufer dieser Technologie ist das Cochlea Implantat. Weiterentwicklungen könnten neben der Wiederherstellung verlorener Fähigkeiten auch darauf abzielen, vorhandene Fähigkeiten zu steigern. Auch Elon Musks Vorstellung, Menschen würden sich künftig nahtlos an KIs anschließen, um mit ihnen auf Augenhöhe zu kommunizieren, ordnete Ritter als "nicht ganz unrealistisch" ein. 

Die Weiterentwicklung der Technologien sei allerdings "äußerst komplex", gab Philipp Kellmeyer zu bedenken. "Die Zustände im Gehirn ändern sich rasend schnell, und verschiedene Regionen müssen koordiniert werden", erklärte er. Zudem filtere der Schädel bei nicht-invasiver Beobachtung die Signale der Hirnaktivitäten, was die Aufzeichnung und Interpretation der Daten erschwere. "Jede Methode hat ihre Grenzen der zeitlichen und räumlichen oder der frequenzbedingten Auflösung." So verstehen wir beispielsweise noch gar nicht, wie eine Absicht etwas zu tun im Gehirn entsteht. 

Für künftige Szenarien vorausdenken 

Gerade im Bereich der KI gebe es aber enorme Fortschritte. Moderne Machine Learning Algorithmen seien in der Lage, Informationen in einem Ausmaß aus den Signalen des Gehirns zu extrahieren, wie es noch vor kurzem nicht möglich war. "Das ist ein Qualitätssprung", sagte Kellmeyer - einer, mit dem keine:r der Diskutierenden gerechnet hat. Und was passiert, wenn die Technologien so weit sind, dass sie Menschen in ihrem Denken und Handeln direkt beobachten und sogar Absichten beeinflussen – insbesondere, wenn die Technologien dafür in den Händen weniger, leistungsfähiger Großkonzerne liegen? "Für diese Szenarien müssen wir vorausdenken", mahnte Ritter.

Auch Kellmeyer betonte, wie wichtig es sei, neuronale Daten der Nutzer:innen zukünftiger BCI-Technologien zu schützen. Der Mediziner forscht in verschiedenen Konsortien zu Fragen der Neuroethik. "Wir haben verschiedene Ebenen der Governance identifiziert, auf denen sichergestellt werden muss, dass mit diesen Daten gut umgegangen wird", sagt er. Gleichzeitig müssten Innovation und Forschungsfreiheit berücksichtigt werden, "weil die Kombination aus Neurotechnologie und KI in der Medizin sehr vielversprechend ist." 

Ethische Herausforderungen 

Die Philosophin und Medizinethikerin Prof. Orsolya Friedrich von der FernUniversität in Hagen zeigte ethische Fragen und Herausforderungen auf, die sich im Umgang mit BCIs ergeben. "Welcher Art diese Herausforderungen sind, hängt von verschiedenen Faktoren ab", sagte sie. Dazu gehört die Art und Weise, wie die Informationen gewonnen werden - sind die Personen aktiv oder passiv beteiligt? Auch in welchem Kontext Informationen gewonnen werden, ist relevant - im medizinischen, militärischen oder im Kontext von Unterhaltungstechnologien? Insbesondere im medizinischen Bereich müssten oft Kosten und Nutzen abgewogen werden. Es brauche langfristige Abschätzungen der Auswirkungen. Und der Zugang zu den Technologien müsse gerecht geregelt sein. BCI-Technologien stünden zudem in einem Spannungsfeld zwischen Datenschutz und Vorteilen für die Nutzenden und es stelle sich die Frage: "Wie viel Datenschutz sollen wir fordern?", erläuterte Friedrich. 

Frau mit Mikro in der Hand sitzt auf einem Sessel

Prof. Orsolya Friedrich von der FernUniversität in Hagen zeigte ethische Fragen und Herausforderungen auf, die sich im Umgang mit BCIs ergeben.

Kellmeyer hält Entwicklungsansätze von BCI-Technologien für unabdingbar, die sich an Teilhabe orientieren, um sicherzustellen, dass Interessen gewahrt werden und die Technologien sich an den Bedarfen der Nutzenden orientieren. "Wir müssen weg vom Technology-Push", sagte er, bei dem die Technologien den Nutzenden aufgezwungen werden. Das Paradigma der "Ethics by Design" sehe zwar vor, Betroffene in die Entwicklung einzubeziehen. Es reiche aber nicht, "sie an irgendeinem Punkt mal anzuhören", meint Kellmeyer. Nur eine Mitwirkung im Sinne von Mitbestimmung und Entscheidungsmacht sei echte Teilhabe. 

Wie viel Maschine darf sein? 

Und mit Blick auf die Unversehrtheit des Menschen fragte Friedrich: Wo liegt die Schwelle der Verschmelzung, wie viel Maschine darf der Mensch sein? Wie verändert sich unser Menschenbild durch die Integration von Technik und Mensch? Es entstünden neue Arten, durch "körperlose Handlungen" etwas zu bewirken. "Bisher musste ich zumindest mit dem Auge blinzeln, um jemanden dazu zu bringen, etwas für mich zu tun", beschrieb sie. Die Möglichkeit, allein durch Gehirnaktivität etwas in der Welt zu erzeugen, sei etwas fundamental Neues. Es stelle sich die Frage: "Ist das noch eine Handlung?" Ob das wirklich eine konzeptionelle Frage sei, hakte Thomas Lengauer nach, oder eigentlich nur eine nach den Werkzeugen. Die meisten Philosoph:innen und Ethiker:innen nähmen wohl an, antwortete Friedrich, dass es Handlungen seien, weil eine Strategie angewandt wird, um ein Ziel zu erreichen. Juristen könnten aber durchaus ihre Probleme mit der Definition haben, merkte sie an. 

Absicht, Handeln und Verantwortung 

Komme es soweit, dass Technologien die Kontrolle über unsere Gedanken hätten, habe das weitreichende Auswirkungen auf unsere Selbstbestimmtheit, sagte Friedrich. Wie viel Kontrolle haben Menschen während der Interaktion mit BCIs? Und wenn künftig Maschinen Absichten in menschliche Gehirne einschreiben könnten, wer sei dann für die resultierenden Handlungen und ihre Auswirkungen verantwortlich, fragte Helge Ritter. Das alles seien vielleicht erst einmal Fragen für Philosoph:innen, meinte Friedrich. Angesichts des rasanten Fortschritts der Technologien beträfen sie aber möglicherweise schon bald die ganze Gesellschaft. Ritter dachte in der Diskussion sogar laut darüber nach, ob die Absichtssteuerung von außen grundsätzlich verboten werden sollte. "Denn wenn sie einmal stattfinden sollte, würden Dinge denkbar, die wir sehr ungern denken." 

Ob die Diskussion um BCIs, um den technischen Zugriff auf das menschliche Gehirn, eigentlich einzigartig sei, fragte Lengauer. "Oder diskutieren wir dieselben Aspekte - etwa den Zugang zu Technologien, den Schutz der Privatsphäre, die Risiken von Sucht oder Abhängigkeit - immer wieder im Kontext verschiedener Technologien?" 

Mann mit Mirko in der Hand

Prof. Thomas Lengauer: "Die Technologien bergen Potenzial für nützliche Zwecke wie auch für Missbrauch." 

Im Kraftfeld der Interessenten 

Das beeindruckende an der Entwicklung der BCI-Technologien sei für ihn "das Ausmaß der möglichen Akribie”, antwortete zunächst Helge Ritter. Mit den Skalierungen im Bereich der KI seien Machbarkeitsgrenzen verschoben worden. Es eröffneten sich neue Möglichkeiten, das Gehirn zu untersuchen und sogar zu beeinflussen. "Solche Möglichkeiten stellt man immer in Kraftfelder von Interessenten, den Nutzern und Anbietern", beschrieb er. "Diese Kraftfelder weisen in viele Richtungen und entwickeln starke Eigendynamiken, die vorausschauend in den Blick genommen werden müssen."  

Kellmeyer beschrieb seine eigene Sichtweise als "ambivalent". Einerseits kenne er aus seiner eigenen Forschung die Grenzen der technischen Möglichkeiten. "Wir können den Ablauf von Prozessen im Gehirn nicht vollständig aufklären", sagte er. Andererseits beobachte er die sprunghaften Fortschritte der KI-Entwicklung. "Ich habe mir abgewöhnt, in diesem Bereich zu sagen, wir schaffen irgendetwas nicht." Technische Hürden, merkte auch Bioinformatiker Lengauer an, lägen wohl eher darin, die Signale aus dem Gehirn aufzunehmen. 

Mann sitzt in einem Sessel auf der Bühne und hört zu

Prof. Helge Ritter, Neuroinformatiker und Leibniz-Preisträger von der Universität Bielefeld.

Nicht-verstehbare Systeme in Interaktion 

Eine spezifische Herausforderung in der Erforschung und Anwendung von BCI-Technologien sieht Kellmeyer darin, dass weder die Vorgänge im Gehirn noch die Schritte der Machine Learning Algorithmen vollständig durchschaubar sind. "Da stehen auf einmal zwei nicht-verstehbare Systeme in Beziehung zueinander und vollführen Handlungen", beschreibt er. Dadurch entstehen Lücken in der Zuschreibung von Verantwortungen. Und allein die Frage nach der konzeptionellen Neudefinition einer Handlung sei aus philosophischer Perspektive geradezu spektakulär und einzigartig für dieses Forschungsfeld, ergänzte Orsolya Friedrich. 

Ob wir die Richtung und die Geschwindigkeit des Fortschritts eigentlich noch selbst bestimmen könnten, fragte ein Zuhörer. "Da sprechen Sie einen wunden Punkt an", sagte Helge Ritter. Die schnellen Entwicklungen der KI stellten die Gesellschaft vor Herausforderungen, bei denen es im Grunde darum gehe, Konsense zu formulieren. "Das Forschungsgebiet der KI und der BCIs ist besonders geeignet, uns zu mahnen, darin besser zu werden." 

Wicked Problems der Governance 

"Und was geschieht, wenn diese potentiell gefährlichen Technologien in die Hände der falschen Menschen oder politischen Systeme fällt?", lautete eine weitere Publikumsfrage. "Welche Technologie ist nicht gefährlich?", fragte zunächst Philipp Kellmeyer zurück. Der Dual-Use Aspekt, die potentielle Verwendung für schädliche Zwecke, betreffe viele Technologien. Immer wieder stelle sich die grundlegende Frage: Welche Verantwortung haben wir, die wir in einem Rechtsstaat leben, für die Verwendung von Technologien in anderen Staaten? Diese Verantwortung kollidiere stellenweise mit unterschiedlichen anderen Werten, etwa der Forschungsfreiheit und dem Wunsch nach Open Data (frei zugänglichen Forschungsdaten). Wicked problems, also komplexe, nicht leicht zu lösende Probleme, der Governance seien nicht spezifisch für Neurotechnologien. "Sie treten immer wieder auf, weil wir keine globalen Governancesysteme haben, die nach den gleichen menschenrechtlichen Prinzipien funktionieren", resümierte Kellmeyer. 

Mehr Infos zur Veranstaltung

Vorträge und Podiumsdiskussion mit

Hier finden Sie Antworten auf die wichtigsten Fragen rund um unsere öffentlichen Veranstaltungen

FAQ öffentliche Veranstaltungen
Wo finden die Veranstaltungen der VolkswagenStiftung statt?

Die Veranstaltungen finden im Xplanatorium Schloss Herrenhausen, Herrenhäuser Straße 5, 30419 Hannover statt. Anfahrt mit öffentlichen Verkehrsmitteln: Üstra-Linien 4 und 5, Haltestelle 'Herrenhäuser Gärten'

Wie komme ich zum Xplanatorium Herrenhausen?
  • mit öffentlichen Verkehrsmitteln: Straßenbahnlinien 4 und 5, Buslinie 136: Haltestelle "Herrenhäuser Gärten" oder "Schaumburgstraße".
  • mit dem Rad: Vor dem Xplanatorium sind Fahrradständer vorhanden. Akkus von E-Bikes sollten mit in das Gebäude genommen und nicht am Fahrrad belassen werden.
  • mit dem Auto: Das Xplanatorium liegt innerhalb der hannoverschen Umweltzone. Kraftfahrzeuge dürfen nur mit grüner Feinstaubplakette in der Umweltzone fahren. Die Parkplätze rund um das Xplanatorium sind gebührenpflichtig.
Wie lange dauern die Veranstaltungen?

Öffentliche Abendveranstaltungen dauern ca. 100 - 120 Minuten.

Wie hoch ist der Eintritt zu Veranstaltungen der VolkswagenStiftung?

Der Eintritt zu den Veranstaltungen der VolkswagenStiftung ist kostenfrei.

Wann beginnt der Einlass bei Veranstaltungen?

Die Türen öffnen 60 Minuten vor Veranstaltungsbeginn.

Ist der Veranstaltungsort barrierefrei?

Das Xplanatorium Herrenhausen ist barrierefrei.

Werden die Veranstaltungen live übertragen?

Einige unserer Veranstaltungen werden auch im Livestream übertragen. Sie erkennen dies am Hinweis "Livestream" im Veranstaltungskalender und auf der jeweiligen Veranstaltungsseite.

Werden die Veranstaltungen aufgezeichnet?

Viele der Veranstaltungen werden live übertragen und aufgezeichnet. Mitschnitte und Berichte zu vergangenen Veranstaltungen finden Sie in unserem Newsroom sowie im Youtube-Kanal der Volkswagenstiftung

Gibt es eine Garderobe?

Bei Veranstaltungen der VolkswagenStiftung im Xplanatorium Herrenhausen können Sie gerne unsere kostenfreie Garderobe nutzen.

Ich habe bei einer Veranstaltung im Xplanatorium etwas verloren oder vergessen, an wen kann ich mich wenden?

Bitte kontaktieren Sie die Schloss Herrenhausen Veranstaltungs- und Betriebs GmbH unter: 0511/763 744-0.

An wen kann ich mich bei weiteren Fragen wenden?

Bei Fragen erreichen Sie unsere Hotline von 8:00 - 16:00 Uhr unter 0511/8381-200.

Bei Fragen wenden Sie sich gern an

Mehr zum Thema