Künstliche Intelligenz im Krieg – wer entscheidet über Leben und Tod?

Datum

Künstliche Intelligenz gewinnt in der Militärtechnik immer mehr an Bedeutung. Wie verändert das die Kriegsführung? Und wer gibt die Regeln vor? Am Ende muss der Mensch entscheiden, darin waren sich die Expert:innen im Herrenhäuser Forum einig.

Es dauerte knapp eine dreiviertel Stunde, bis in der von Annette Riedel, Deutschlandfunk Kultur, im Schloss Herrenhausen geführten Diskussion erstmals von der Ukraine die Rede war. Zu diesem Zeitpunkt war das Podium des Herrenhäuser Forums zum Thema "Krieg der Algorithmen? - Künstliche Intelligenz in der Militärtechnik" bereits beim zentralen Aspekt des Abends angelangt: Wie soll die Regulierung autonomer oder teilautonomer Waffensysteme aussehen? "Welche Rolle spielt der Mensch, und welche Rolle überlasse ich einem autonomen System?", fragte der Sicherheitsexperte Christian Mölling, Forschungsdirektor der Deutschen Gesellschaft für Auswärtige Politik, in die Runde.

Videomitschnitt der Veranstaltung

Künstliche Intelligenz in der Militärtechnik
Mann auf dem Podium
Dr. Frank Sauer forscht an der Universität der Bundeswehr München. (Foto: VolkswagenStiftung)

Doch wie autonom agieren Waffensystemen bereits heute? Wie definiert sich eine teil- oder auch vollautonome Waffe? Und wie lässt sich der Einsatz solcher Kriegsgeräte mit dem bestehenden Kriegsvölkerrecht in Einklang bringen? Thomas Küchenmeister begleitet den Entwicklungsprozess von Künstlicher Intelligenz in Waffensystemen schon lange auf Fachmessen und am Rande von Verhandlungen. Er verwies auf einen Bericht der UNO, wonach in Libyen Drohnen aus der Türkei zum Einsatz gekommen sein sollen, die selbstständig Ziele erfassen und bekämpfen konnten. "Deshalb ist es wichtig, dass wir jetzt Pflöcke einschlagen und in Genf aktiv werden." Die internationale Gemeinschaft hatte sich in Genf nicht darauf einigen können, sogenannte Killerroboter zu ächten. Für Küchenmeister ist es die zentrale ethische Frage, wie viel Entscheidungskompetenz der Mensch an Maschinen in Bezug auf Tötungsentscheidungen abgibt. "Wir sollten diese Entscheidungsgewalt nie an einen Algorithmus abgeben."

Fortschritte auch ohne Einigung 

Autonome Systeme, erklärte Frank Sauer, seien nichts Neues. "Die Bundeswehr hatte Waffensysteme mit Autonomie in ihren kritischen Funktionen – Zielauswahl und Zielbekämpfung – lange bevor wir die Drohnendebatte hatten." Als Beispiel nannte Sauer die Patriot-Raketenabwehr. Im Übrigen sei man in Genf, so Sauer, und auch in den Verhandlungen davor und danach, "dramatisch weitergekommen", beispielsweise bei der Definition dessen, was autonome Waffen eigentlich seien. Außerdem seien sich die meisten Staaten darin einig, dass man eine zweigleisige Regulierung für KI in der Militärtechnik anstreben müsse: ein Verbot jener Waffensysteme, die in ihrem Profil auf Menschen abzielen, also ein Verbot der Anti-Personenwaffe, sowie die Sicherstellung menschlicher Kontrolle über diese Waffen. Moderatorin Annette Riedel fragte, ob es für eine Regulierung nicht bereits zu spät sei: "Ist das Zeitfenster noch offen für Verbote?".

Frau spricht in die Kamera
Dr. Silja Vöneky erklärt, es gäbe keine Einwände aus völkerrechtlicher Sicht gegen teilautonome Systeme, hinter denen eine menschliche Verantwortung zu erkennen ist. Foto: VolkswagenStiftung)

Die Völkerrechtlerin Silja Vöneky warnte vor selbstlernenden Systemen, die sich ihre eigenen Regeln schaffen und bestätigte den Eindruck auf dem Podium: Autonome Waffensysteme setzen das Völkerrecht unter Druck. Wenn die letzte Entscheidung nicht mehr beim Menschen liege, stelle sich die Frage der Durchsetzung des Völkerrechts, sagte die Rechtswissenschaftlerin. Verantwortung müsse klar adressierbar bleiben, weil ansonsten niemand als Kriegsverbrecher bestraft werden könne. "Das ist die große Gefahr der Undurchsetzbarkeit des Kriegsvölkerrechts." Anders als Frank Sauer nahm Vöneky die Drohnen weiter in den Blick. Man könne sehr wohl zwischen rein defensiven und potentiell auch offensiv nutzbaren Systemen – zum Beispiel Drohnen – unterscheiden. Keine Einwände gebe es laut Vöneky aus völkerrechtlicher Sicht gegen teilautonome Systeme, hinter denen eine menschliche Verantwortung zu erkennen ist.

Mann auf dem Podium, mit Mikrofon
Thomas Küchenmeister ist Sprecher der internationalen "Campaign to Stop Killer Robots". (Foto: VolkswagenStiftung)

Maschine gegen Maschine? "Feuer frei!"

Einwände gegen einen Kampf Maschine gegen Maschine gab es auch auf dem Podium nicht – im Gegenteil. Thomas Küchenmeister nannte als Beispiel das israelische Trophy-System, das den Leopard 2 schützt. Frank Sauer sagte, dass man bestimmte autonome Systeme sogar unbedingt benötige: "Hyperschallschnelle Flugkörper abschießen – das müssen wir können, da müssen wir uns auf Maschinen verlassen. Das kann kein Mensch mehr leisten. Wenn ein russischer, ferngesteuerte Panzer angerumpelt kommt, dann heißt es aus meiner Sicht: Maschine, Feuer frei!"

Christian Mölling erinnerte an das Prinzip von Militär: "Will ich militärische Überlegenheit? Oder will ich sie nicht?" Aber: "Auch die Militärs wollen die absolute Autonomie nicht. Ein wesentlicher Aspekt des Krieges ist die Kontrolle über die Zerstörung", so Mölling. Sauer pflichtete bei: Waffensysteme folgten einem Zyklus: finden, fixieren, verfolgen, auswählen, bekämpfen. Je schneller dieser Zyklus abgearbeitet werde, desto größer der taktische Vorteil, erläuterte Frank Sauer. Es gebe allerdings einen Haken: Wenn beide Kriegsparteien so handelten, komme es zu einer Aufwärtsspirale auf dem Schlachtfeld, an deren Ende die Militärs die Kontrolle über ihre eigene KI verlören. "Eine Horrorvorstellung, kein Militär der Welt will das." 

Annette Riedel fragte am Beispiel von Kundus, wo 2009 bei einem Bombardement mindestens 91 unschuldige afghanische Zivilisten ums Leben kamen, ob mehr Maschine und weniger Mensch nicht auch weniger Irrtum bedeuten könne. Silja Vöneky äußerte Zweifel, und auch Frank Sauer vertrat eine andere Position. Gewiss, Menschen würden Fehler machen. "Aber wir machen nicht alle den gleichen Fehler zur selben Zeit in Lichtgeschwindigkeit!" Das wäre das Szenario, wenn man autonome Waffensysteme völlig unreguliert einsetzen würde, so Sauer. Der Politikwissenschaftler gab mehrfach zu erkennen, dass er KI nur bedingt für intelligent und lernfähig hält. 

Mann auf dem Podium, mit Mikrofon
Christian Mölling ist Forschungsdirektor der Deutschen Gesellschaft für Auswärtige Politik. (Foto: VolkswagenStiftung)

Zweifel an einer allgemeinverbindlichen Lösung 

Man wird sich in Zukunft mit autonomen Waffensystemen auseinandersetzen müssen, darin stimmten die Expert:innen auf dem Podium überein. Die Frage sei: Schaffen wir es noch, Sorgfaltsnormen zu installieren, die für alle Staaten gelten?  Christian Mölling verwies auf den Krieg in der Ukraine: "Unsere Idee ist: Wir schaffen Frieden durch Recht. Dieses Prinzip ist in den vergangenen Wochen öfter mit dem Panzer überfahren worden." Mölling stellte die Frage in den Raum, was passieren würde, wenn wesentliche Akteur:innen nicht das Normengebäude teilen, das Deutschland und seinen Partnern vorschwebt. Wie sähe in diesem Fall Regulierung aus?

Silja Vöneky teilte Möllings Zweifel. "Wenn zentrale Akteure wie Russland oder die USA eine vertragliche Regulierung ablehnen, macht es dann noch Sinn für eine solche Regelung zu kämpfen?" Was wäre auf internationaler Ebene realistisch zu erreichen, wenn auch China, Australien und Israel sich nicht an vertragliche Regelungen gebunden fühlten. 

Thomas Küchenmeister hofft auf eine mögliche Koalition der Willigen - so wie bei Landminen und Streumunition bereits geschehen - und auf den Druck aus der Zivilgesellschaft. Christian Mölling zeigte sich pessimistisch. Zivilgesellschaft oder gar Stigmatisierung, das interessiere in Moskau oder Peking nicht. "Es gibt diese globale Zivilgesellschaft nicht." Wenn die Regulierung nicht funktioniere, müssen man Alternativen finden. Mölling plädierte für einen realpolitischen Ansatz in der Debatte, um nationale Interessen durchzusetzen: "Wenn wir keinen Frieden durch Recht setzen können, dann werden wir Frieden durch Macht setzen müssen."

Für unsere Normen kämpfen

Die Bundesrepublik sahen die Expert:innen in diesem Prozess gut aufgestellt. Frank Sauer erinnerte daran, dass wir uns als wehrhafte Demokratie definieren. "Wehrhaftigkeit bedeutet, dass wir uns mit dieser Technologie beschäftigen müssen, um sie gestalten zu können. Demokratie heißt, dass es bei uns handlungsleitende Normen gibt, an denen wir uns orientieren." Der Krieg in der Ukraine werde von Russland "komplett entgrenzt geführt", befand Christian Mölling. "Wir werden Kriege im Rahmen der Normen kämpfen, für die wir kämpfen. Wir sollten den Unterschied machen, was richtig ist und was falsch ist." Mölling äußerte die Befürchtung, dass sich die Welt in zwei unterschiedliche Technologie-Sphären aufteilen könnte – die westliche und die östliche. Dass man mit dem Normengerüst im Nachteil gegenüber regulierungsfreien Staaten sein könnte, bezweifelten beide. Es sei eine Haltung, so Sauer. "Wir machen bestimmte Dinge nicht, weil wir das für richtig halten. Wir können entscheiden, was richtig ist und diese Normen in die Welt tragen."

Autor: Bruno Brauer