Videomitschnitt der Veranstaltung
Externe Inhalte anzeigen
Um Ihre personenbezogenen Daten zu schützen, haben wir das automatische Laden externer Inhalte blockiert (z. B. Videos von Youtube oder Vimeo). Um diese Inhalte anzuzeigen, benötigen wir Ihre Zustimmung:
Ihre Zustimmung können Sie unter Datenschutzhinweise widerrufen.

Russland und USA stehen bei Regulierungen auf der Bremse
Die Frage von Dr. Frank Sauer, Politikwissenschaftler an der Universität der Bundeswehr München, ging in eine ähnliche Richtung: "Wie wird die Mensch-Maschine-Interaktion auf dem Schlachtfeld im 21. Jahrhundert gestaltet?" Sauer attestierte unter anderem Russland, nicht sonderlich an einer verbindlichen Regelung des Einsatzes vollautonomer Waffensysteme interessiert zu sein. "Russland behindert den Prozess, wo es nur geht." Diese passive Haltung habe das Regime auch schon vor dem Ukraine-Krieg gezeigt. Neben Russland stünden auch die USA "auf der Bremse". Staaten wie Israel versprächen sich wegen ihres technologischen Vorsprungs etwas von dieser Technologie und hätten ebenfalls an einer Begrenzung der Möglichkeiten kein Interesse. In diesem Punkt herrschte Konsens auf dem Podium, das neben Mölling und Sauer besetzt war mit Thomas Küchenmeister, Sprecher der internationalen "Campaign to Stop Killer Robots" in Deutschland, und – zugeschaltet per Video – Prof. Dr. Silja Vöneky, Rechtswissenschaftlerin an der Universität Freiburg.
Doch wie autonom agieren Waffensystemen bereits heute? Wie definiert sich eine teil- oder auch vollautonome Waffe? Und wie lässt sich der Einsatz solcher Kriegsgeräte mit dem bestehenden Kriegsvölkerrecht in Einklang bringen? Thomas Küchenmeister begleitet den Entwicklungsprozess von Künstlicher Intelligenz in Waffensystemen schon lange auf Fachmessen und am Rande von Verhandlungen. Er verwies auf einen Bericht der UNO, wonach in Libyen Drohnen aus der Türkei zum Einsatz gekommen sein sollen, die selbstständig Ziele erfassen und bekämpfen konnten. "Deshalb ist es wichtig, dass wir jetzt Pflöcke einschlagen und in Genf aktiv werden." Die internationale Gemeinschaft hatte sich in Genf nicht darauf einigen können, sogenannte Killerroboter zu ächten. Für Küchenmeister ist es die zentrale ethische Frage, wie viel Entscheidungskompetenz der Mensch an Maschinen in Bezug auf Tötungsentscheidungen abgibt. "Wir sollten diese Entscheidungsgewalt nie an einen Algorithmus abgeben."
Fortschritte auch ohne Einigung
Autonome Systeme, erklärte Frank Sauer, seien nichts Neues. "Die Bundeswehr hatte Waffensysteme mit Autonomie in ihren kritischen Funktionen – Zielauswahl und Zielbekämpfung – lange bevor wir die Drohnendebatte hatten." Als Beispiel nannte Sauer die Patriot-Raketenabwehr. Im Übrigen sei man in Genf, so Sauer, und auch in den Verhandlungen davor und danach, "dramatisch weitergekommen", beispielsweise bei der Definition dessen, was autonome Waffen eigentlich seien. Außerdem seien sich die meisten Staaten darin einig, dass man eine zweigleisige Regulierung für KI in der Militärtechnik anstreben müsse: ein Verbot jener Waffensysteme, die in ihrem Profil auf Menschen abzielen, also ein Verbot der Anti-Personenwaffe, sowie die Sicherstellung menschlicher Kontrolle über diese Waffen. Moderatorin Annette Riedel fragte, ob es für eine Regulierung nicht bereits zu spät sei: "Ist das Zeitfenster noch offen für Verbote?".

Die Völkerrechtlerin Silja Vöneky warnte vor selbstlernenden Systemen, die sich ihre eigenen Regeln schaffen und bestätigte den Eindruck auf dem Podium: Autonome Waffensysteme setzen das Völkerrecht unter Druck. Wenn die letzte Entscheidung nicht mehr beim Menschen liege, stelle sich die Frage der Durchsetzung des Völkerrechts, sagte die Rechtswissenschaftlerin. Verantwortung müsse klar adressierbar bleiben, weil ansonsten niemand als Kriegsverbrecher bestraft werden könne. "Das ist die große Gefahr der Undurchsetzbarkeit des Kriegsvölkerrechts." Anders als Frank Sauer nahm Vöneky die Drohnen weiter in den Blick. Man könne sehr wohl zwischen rein defensiven und potentiell auch offensiv nutzbaren Systemen – zum Beispiel Drohnen – unterscheiden. Keine Einwände gebe es laut Vöneky aus völkerrechtlicher Sicht gegen teilautonome Systeme, hinter denen eine menschliche Verantwortung zu erkennen ist.

Maschine gegen Maschine? "Feuer frei!"
Einwände gegen einen Kampf Maschine gegen Maschine gab es auch auf dem Podium nicht – im Gegenteil. Thomas Küchenmeister nannte als Beispiel das israelische Trophy-System, das den Leopard 2 schützt. Frank Sauer sagte, dass man bestimmte autonome Systeme sogar unbedingt benötige: "Hyperschallschnelle Flugkörper abschießen – das müssen wir können, da müssen wir uns auf Maschinen verlassen. Das kann kein Mensch mehr leisten. Wenn ein russischer, ferngesteuerte Panzer angerumpelt kommt, dann heißt es aus meiner Sicht: Maschine, Feuer frei!"
Christian Mölling erinnerte an das Prinzip von Militär: "Will ich militärische Überlegenheit? Oder will ich sie nicht?" Aber: "Auch die Militärs wollen die absolute Autonomie nicht. Ein wesentlicher Aspekt des Krieges ist die Kontrolle über die Zerstörung", so Mölling. Sauer pflichtete bei: Waffensysteme folgten einem Zyklus: finden, fixieren, verfolgen, auswählen, bekämpfen. Je schneller dieser Zyklus abgearbeitet werde, desto größer der taktische Vorteil, erläuterte Frank Sauer. Es gebe allerdings einen Haken: Wenn beide Kriegsparteien so handelten, komme es zu einer Aufwärtsspirale auf dem Schlachtfeld, an deren Ende die Militärs die Kontrolle über ihre eigene KI verlören. "Eine Horrorvorstellung, kein Militär der Welt will das."
Annette Riedel fragte am Beispiel von Kundus, wo 2009 bei einem Bombardement mindestens 91 unschuldige afghanische Zivilisten ums Leben kamen, ob mehr Maschine und weniger Mensch nicht auch weniger Irrtum bedeuten könne. Silja Vöneky äußerte Zweifel, und auch Frank Sauer vertrat eine andere Position. Gewiss, Menschen würden Fehler machen. "Aber wir machen nicht alle den gleichen Fehler zur selben Zeit in Lichtgeschwindigkeit!" Das wäre das Szenario, wenn man autonome Waffensysteme völlig unreguliert einsetzen würde, so Sauer. Der Politikwissenschaftler gab mehrfach zu erkennen, dass er KI nur bedingt für intelligent und lernfähig hält.

Zweifel an einer allgemeinverbindlichen Lösung
Man wird sich in Zukunft mit autonomen Waffensystemen auseinandersetzen müssen, darin stimmten die Expert:innen auf dem Podium überein. Die Frage sei: Schaffen wir es noch, Sorgfaltsnormen zu installieren, die für alle Staaten gelten? Christian Mölling verwies auf den Krieg in der Ukraine: "Unsere Idee ist: Wir schaffen Frieden durch Recht. Dieses Prinzip ist in den vergangenen Wochen öfter mit dem Panzer überfahren worden." Mölling stellte die Frage in den Raum, was passieren würde, wenn wesentliche Akteur:innen nicht das Normengebäude teilen, das Deutschland und seinen Partnern vorschwebt. Wie sähe in diesem Fall Regulierung aus?
Silja Vöneky teilte Möllings Zweifel. "Wenn zentrale Akteure wie Russland oder die USA eine vertragliche Regulierung ablehnen, macht es dann noch Sinn für eine solche Regelung zu kämpfen?" Was wäre auf internationaler Ebene realistisch zu erreichen, wenn auch China, Australien und Israel sich nicht an vertragliche Regelungen gebunden fühlten.
Thomas Küchenmeister hofft auf eine mögliche Koalition der Willigen - so wie bei Landminen und Streumunition bereits geschehen - und auf den Druck aus der Zivilgesellschaft. Christian Mölling zeigte sich pessimistisch. Zivilgesellschaft oder gar Stigmatisierung, das interessiere in Moskau oder Peking nicht. "Es gibt diese globale Zivilgesellschaft nicht." Wenn die Regulierung nicht funktioniere, müssen man Alternativen finden. Mölling plädierte für einen realpolitischen Ansatz in der Debatte, um nationale Interessen durchzusetzen: "Wenn wir keinen Frieden durch Recht setzen können, dann werden wir Frieden durch Macht setzen müssen."
Für unsere Normen kämpfen
Die Bundesrepublik sahen die Expert:innen in diesem Prozess gut aufgestellt. Frank Sauer erinnerte daran, dass wir uns als wehrhafte Demokratie definieren. "Wehrhaftigkeit bedeutet, dass wir uns mit dieser Technologie beschäftigen müssen, um sie gestalten zu können. Demokratie heißt, dass es bei uns handlungsleitende Normen gibt, an denen wir uns orientieren." Der Krieg in der Ukraine werde von Russland "komplett entgrenzt geführt", befand Christian Mölling. "Wir werden Kriege im Rahmen der Normen kämpfen, für die wir kämpfen. Wir sollten den Unterschied machen, was richtig ist und was falsch ist." Mölling äußerte die Befürchtung, dass sich die Welt in zwei unterschiedliche Technologie-Sphären aufteilen könnte – die westliche und die östliche. Dass man mit dem Normengerüst im Nachteil gegenüber regulierungsfreien Staaten sein könnte, bezweifelten beide. Es sei eine Haltung, so Sauer. "Wir machen bestimmte Dinge nicht, weil wir das für richtig halten. Wir können entscheiden, was richtig ist und diese Normen in die Welt tragen."
Autor: Bruno Brauer