Skip to main content

Nikolas Löbel: "Es muss Grenzen des Einsatzes von KI geben"

Rede zu Ächtung autonomer Waffensysteme

Herr Präsident! Liebe Kolleginnen und Kollegen! Die Anträge von Grünen und Linken sind es der Sache nach wert, dass wir uns damit beschäftigen; denn es geht um den Spagat zwischen dem Einfluss von künstlicher Intelligenz auf unsere Sicherheitsarchitektur und der wesentlichen Frage: Wo muss auch in Zukunft der Mensch entscheiden? KI, künstliche Intelligenz, verändert alles: Sie verändert Mobilität, sie verändert unser Gesundheitswesen, und ja, sie verändert auch unsere Sicherheitsarchitektur. Allein ein Blick auf die ständigen Mitglieder des UN-Sicherheitsrates zeigt diese Realität.

Wir haben uns im Unterausschuss „Abrüstung, Rüstungskontrolle und Nichtverbreitung“ im November mit dieser Frage beschäftigt. Die Experten, die geladen waren, haben deutlich gemacht, dass allein schon eine einheitlich klare Definition von autonomen Waffen nicht existiert. Deswegen ist die Frage: Bis wohin lassen wir künstliche Intelligenz zu und bis wohin nicht? Für uns ist klar: Der Einsatz von autonomen Waffen soll immer dem Schutz unserer Soldatinnen und Soldaten dienen.

Mit Blick auf die Realität, wie ich sie beschrieben habe, ist auch klar, dass diese Waffen bereits ein nicht zu verhindernder, aber ein zu nutzender Bestandteil moderner Sicherheitsarchitektur sind und sein werden. Wenn wir uns ehrlich machen, dann ist klar, dass wir Weiterentwicklung, Innovation – auch KI – im Bereich der Sicherheitsarchitektur schon alleine aufgrund der demografischen Entwicklung, die sich auch auf die Bundeswehr auswirkt, nicht ausschließen können.

Aber – das ist für uns als CDU/CSU klar – es gibt Grenzen, und es muss Grenzen des Einsatzes von KI geben.

(Beifall bei der CDU/CSU sowie bei Abgeordneten der SPD und der FDP)

Ich bin dem Kollegen Dr. Faber sehr dankbar, dass er darauf hingewiesen hat, dass es wichtig ist, zu definieren, wo wir keinen Einsatz von KI wollen. Es bringt uns nichts, pauschal die Debatte darüber und Forschung und Entwicklung zu verbieten;

(Agnieszka Brugger [BÜNDNIS 90/DIE GRÜNEN]: Das will ja auch niemand!)

vielmehr müssen wir wissen, was möglich ist, um dann zu sagen, wo wir es nicht eingesetzt haben wollen.

Deswegen ist wichtig, dass unser Grundsatz gilt: Nicht alles, was technisch machbar ist, ist mit unseren Wertvorstellungen vereinbar.

(Beifall bei Abgeordneten der CDU/CSU)

Wichtig ist, dass der Mensch und keine Maschine die Entscheidung über Leben und Tod trifft. Moderne technologische Innovationen dürfen niemals unsere gesetzlichen oder ethischen Maßstäbe verrücken. Das ist ganz wichtig, und deswegen haben wir das im Koalitionsvertrag niedergeschrieben.

Aber klar ist auch: Wer wissen will, welche Innovationen, welche technischen Erneuerungen möglich sind, muss selbst forschen; er muss entwickeln, er muss das gewonnene Wissen einsetzen, um Missbrauch zu verhindern. Nicht zu forschen, nicht zu entwickeln, bedeutet Unwissenheit. Unwissenheit schützt aber nicht vor Strafe, auch nicht vor moralischer Strafe. Deswegen wäre es falsch, einseitig national zu verbieten und damit die Chance zu verpassen, Teil von Diskussionen zu sein. Nur dann können wir den Einsatz von KI in einer Sicherheitsarchitektur richtig steuern.

(Beifall bei Abgeordneten der CDU/CSU)

Ich glaube, der Ansatz, den die Bundesregierung verfolgt, ist richtig; wir unterstützen ihn. Ein einfaches nationales Verbot mag uns vielleicht moralisch erhöhen, aber es verhindert, dass wir international den Einfluss ausüben, den Deutschland ausüben muss. Deswegen lehnen wir diese Anträge ab.

(Beifall bei der CDU/CSU und der FDP sowie bei Abgeordneten der SPD)