Skip to main content
(Quelle: Bundeswehr/Tessensohn)

"KI wird entscheidend für den Erfolg militärischer Operationen sein"

3 Fragen, 3 Antworten an Henning Otte

Künstliche Intelligenz (KI) spielt nicht nur in der Spracherkennung oder beim autonomen Fahren eine Rolle, sondern zunehmend auch in der Sicherheitspolitik. Anwendungsmöglichkeiten gibt es beispielsweise in der Logistik oder Krisenfrüherkennung, jedoch auch im Bereich autonomer Waffensysteme. Henning Otte, verteidigungspolitischer Sprecher der CDU/CSU-Bundestagsfraktion, schildert im Kurzinterview, welche Vorteile KI für unsere Streitkräfte haben kann, aber auch, wo die Grenzen in der Anwendung liegen müssen.

Welche Bedeutung hat die künstliche Intelligenz für die Streitkräfte?

Die Einführung künstlicher Intelligenz bedeutet für das Militärwesen einen Epochenwechsel, vermutlich nur vergleichbar mit der Erfindung des Schießpulvers oder der Atombombe. Sie verschafft in Führungsprozessen einen enormen Zeitgewinn, denn sie hilft dabei, Informationen viel schneller und präziser zu einem umfassenden Lagebild zusammenzufügen, als ein Mensch das je könnte. KI wird deshalb in Zukunft entscheidend für den Erfolg militärischer Operationen sein. Clausewitz hat die immer vorhandene Informationsunsicherheit im Krieg als "Nebel des Krieges" bezeichnet. Dem können wir mit KI entgegenwirken. Autonome Waffensysteme sind außerdem einfacher zu bedienen - das spart Personal, Ausbildung und somit auch Geld. Schließlich sind ganz neue Formen der Logistik mit Hilfe von KI denkbar, sodass die dringend benötigte Einsatzbereitschaft unserer Streitkräfte hierdurch erhöht werden kann.                   

Wie stehen Sie zu autonomen Waffensystemen?                      

Autonome Waffensysteme sollten zum Schutz unserer Soldaten beitragen und sind ein elementarer nicht zu verhindernder aber zu nutzender Bestandteil zukünftiger militärischer Möglichkeiten. Länder wie die USA oder China unternehmen bereits enorme Anstrengungen auf diesem Gebiet. Wir haben, schon aus demographischen Gründen, gar nicht mehr die Manpower, um uns der Verwendung autonomer Systeme verweigern zu können. Aber natürlich gibt es hier Grenzen. Nicht alles, was technisch machbar ist, ist mit unseren Wertevorstellungen vereinbar. Wichtig ist, dass der Mensch nicht die Entscheidung über Leben und Tod verliert. Klar ist außerdem, dass neue Technologien unsere gesetzlichen und ethischen Maßstäbe nicht verschieben dürfen. Dennoch sollten wir autonome Waffensysteme auch als normale, technologischen Weiterentwicklung von Streitkräften betrachten. Sie haben Stärken und Schwächen, versprechen Chancen und Gefahren - aber vor allem werden sie Teil des zukünftigen Kriegsbildes sein, ob wir es wollen oder nicht.                     

Vor dem Hintergrund der europäischen Verteidigungszusammenarbeit: Welchen Weg sollte man bei den Genfer Rüstungskontrollgesprächen über autonome Waffensysteme einschlagen?                             

Genf sollte der Ort für ethische Normen des Krieges sein und bleiben. Hierbei geht es um das ius in bello, also das, was im Krieg erlaubt ist und was nicht. Ethische, völkerrechtliche und gesellschaftliche Einschränkungen müssen im Krieg, und auch im Bereich der KI, unbedingt

beachtet werden. Allerdings dürfen wir den zweiten Schritt nicht vor dem ersten machen: Wenn es zum Beispiel um eine Ächtung von letalen autonomen Waffensystemen (LAWS) geht, benötigen wir erst einmal eine genaue Definition, was damit genau gemeint ist. Ansonsten könnte nämlich jeder Akteur so eine Ächtung auslegen, wie es ihm beliebt. Eine Ächtung ohne klare Definition wäre also nicht nur unklug, sondern auch gefährlich.