Sicherheitsrisiko KI

Kevin Baum

Kevin Baum macht deutlich, wie wichtig es ist, Dual Use bei KI-Entwicklungen mitzudenken. Er plädiert für mehr individuelle Verantwortung, bessere Lehre, sinnvolle Regulierung und starke Ethik-Kommissionen.

Bühnenbild mit Cowboy

Kürzlich erschien in "Nature Machine Intelligence" ein aufrüttelnder Beitrag (Fabio Urbina, Filippa Lentzos, Cédric Invernizzi & Sean Ekins (2022): "Dual use of artificial-intelligence-powered drug discovery"). Darin schilderten die Autor:innen – mit der Frage konfrontiert, ob und wie bestimmte KI-Technologien der Wirkstoffforschung missbraucht werden könnten – eine auch für sie selbst erschreckende Entdeckung: Mit kleinen Eingriffen konnten sie ihr KI-getriebenes System zur Entdeckung von Arzneimitteln zu einem System für das Design hocheffizienter biochemischer Kampfmittel umbauen. Dafür musste, leicht vereinfacht gesprochen, lediglich jene KI-Komponente, die bislang Moleküle aufgrund der prognostizierten Toxizität als untaugliche Wirkstoffe aussortierte, umgekehrt interpretiert werden: Statt die Toxizität eines Moleküls zu bestrafen, wurde diese belohnt. Innerhalb weniger Stunden konnten mit der in nur wenigen Schritten abgeänderten künstlichen Intelligenz zehntausende potenzieller Gifte und Kampfstoffe generiert werden. Viele davon waren wohlbekannt, wie beispielsweise das Nervengift VX. Aber auch diverse neue Verbindungen mit sogar deutlich höherer prognostizierter Letalität wurden vom KI-System vorgeschlagen. Besonders brenzlig: Da jene Mittel bislang unbekannt sind, könnte man sie wohl einfach in Laboren synthetisieren und verschicken lassen, ohne dass etablierte Alarmmechanismen greifen. Denn nach Unbekanntem sucht man nicht.

Mit nur wenigen Handgriffen wurde also aus einer gesellschaftsdienlichen Anwendung ein Alptraum der nationalen wie internationalen Sicherheit. Diese Dimension des potenziellen Schadens von KI-Modellen durch Dual Use wird bislang vernachlässigt, so die Autor:innen: "Die Diskussion über die gesellschaftlichen Auswirkungen der KI konzentrierte sich auf Aspekte wie Sicherheit, Privatsphäre, Diskriminierung und potenziellen kriminellen Missbrauch, nicht aber auf nationale und internationale Sicherheit. [...] Wir berücksichtigen normalerweise nicht das Potenzial des Technologiemissbrauchs. Wir sind nicht darauf trainiert, es zu berücksichtigen, und es wird in der Forschung zum maschinellen Lernen nicht verlangt [...]."

Es bleibt zu hoffen, dass viele Forschende über Missbrauchspotenziale nachdenken.

Fabio Urbina, Filippa Lentzos, Cédric Invernizzi & Sean Ekins

Diese Aussage ist erschreckend, und es bleibt nur zu hoffen, dass viele Forschende eben doch über Missbrauchspotenziale nachdenken. Mindestens für die Forschung an deutschen Hochschulen gibt es mittlerweile, vor allem auf Betreiben der Leopoldina und der DFG, auf diesen Aspekt spezialisierte Gremien, die "Kommissionen für die Ethik sicherheitsrelevanter Forschung" (KEFs). Ihr Fokus liegt nicht auf etwaigen unmittelbaren Effekten auf an Studien beteiligten Tieren oder Menschen, stattdessen widmen sich KEFs explizit sogenannter "besorgniserregender sicherheitsrelevanter Forschung". Damit ist Forschung gemeint, die – vor allem durch den Missbrauch durch Dritte – dazu geeignet sein kann, "Menschenwürde, Leben, Gesundheit, Freiheit, Eigentum, Umwelt oder ein friedliches Zusammenleben erheblich zu schädigen".

Das Vorhandensein der KEFs macht die Erkenntnis aus dem zitierten Beitrag jedoch nicht weniger brisant. Denn zum einen beschränkt sich ihr Effekt vor allem auf die deutschen Hochschulen, ein Großteil der aktuellen KI-Forschung findet aber anderswo statt. Nicht nur in anderen Ländern, sondern immer häufiger in privaten Unternehmen, beispielsweise in den großen amerikanischen Technologieunternehmen (Nicolás Rivero: "Google showed us the danger of letting corporations lead AI research" in Quartz (qz.com, Dec. 2020)), aber auch in vielen kleinen und mittelständischen Unternehmen. Zwei der Autor:innenen beispielsweise arbeiten bei einer wohl höchstens in Fachkreisen bekannten Firma namens Collaborations Pharmaceuticals, Inc. Und zum anderen sind KEFs häufig selbst an den hiesigen Hochschulen nicht hinlänglich wirksam.

Grafik Flasche mit Medikamenten

Künstliche Intelligenz kann auch für Erkenntnisse im medizinischen Bereich missbraucht werden.

Aus meiner Sicht als Wissenschafts- und Computerethiker sowie als Mitglied der KEF der Universität des Saarlandes plädiere ich daher für das Adjustieren dreier Stellschrauben:

1. SENSIBILISIERUNG UND AUSBILDUNG. Bereits im Grundstudium sind angehende Wissenschaftler:innen für die gesellschaftlichen, auch sicherheitsrelevanten Dimensionen ihres Tuns zu sensibilisieren. Dies gilt es fortwährend zu vertiefen, auch während der Promotionsphase. Forschende müssen befähigt werden, entsprechenden Herausforderungen kompetent zu begegnen und sie, ggf. unter Rückgriff auf externe Expertise, zu meistern.

2. AUFWERTUNG DER KEFS. Die Bekanntheit von KEFs muss erhöht werden. Alle Wissenschaftler:innen einer Hochschule müssen wissen, wofür es sie gibt und wie man sie erreicht. Notwendig sind klare Vorgaben, wann Forschungsvorhaben KEFs vorzulegen sind, so wie es Vorgaben gibt, wann Projekte von traditionellen Ethikkommissionen abzusegnen sind. Vor allem aber müssen KEFs entsprechend ausgestattet werden: mit Zeit, Mitteln und Wissen. Gute Kommissionsarbeit kann nicht umsonst sein und als quasi ehrenamtliche Arbeit auf den Schultern engagierter Wissenschaftler:innen abgeladen werden. Eine Anrechnung aufs Lehrdeputat, beispielsweise, wäre meiner Ansicht nach eine gute Idee.

3. REGULIERUNG: Für den Privatsektor muss es Regulierung für Hochrisikoanwendungen geben, was auch solche Anwendungen einschließt, die womöglich erst durch Missbrauch zur Hochrisikoanwendung werden. Obgleich noch im Entwurfsstadium und nicht ganz ausgereift, scheint mir die geplante europäische KI-Regulierung grundlegend in die richtige Richtung zu weisen. Nicht alles, was entwickelt werden kann, sollte auch erforscht oder gar in Umlauf gebracht werden. Wo das moralische "sollte" zu kurz greift, braucht es klare rechtliche Regeln.

Am Ende (m)ein Appell: Jeder/jede Forschende trägt Verantwortung – auch hinsichtlich des Missbrauchspotenzials. Verantwortung verschwindet nicht, nur weil man sie nicht annimmt. Es geht es nicht um Selbstzensur, sondern darum, mehr mitzudenken als die intendierten Anwendungen. Und für eine abschließende Beurteilung steht ja hilfreiche Expertise zur Verfügung: KEFs sind keine zusätzliche Hürde, sondern Unterstützer beim Wahrnehmen der eigenen Verantwortung. Erkundigen Sie sich also am besten noch heute, welche KEF für Sie zuständig ist – und wie Sie sie nutzen und unterstützen können. 

Kevin Baum Portrait

Kevin Baum

Kevin Baum ist wissenschaftlicher Mitarbeiter und Dozent an der Universität des Saarlandes, er promoviert in Informatik und Philosophie. Mit der Vorlesung "Ethics for Nerds" hat er einen diskursiven und moralphilosophischen Werkzeugkasten zur Bewältigung ethischer Herausforderungen mitentwickelt. Er engagiert sich als stellvertretender Vorsitzender in der KEF seiner Universität und ist Mitgründer von Algoright e. V., einer gemeinnützigen, interdisziplinären Denkfabrik für gute Digitalisierung.