Google hat am 5. Februar 2025 seine Grundsätze zur Künstlichen Intelligenz (KI) aktualisiert und dabei die Selbstverpflichtung von 2018, keine KI für Waffen zu entwickeln, aus seinen Richtlinien gestrichen. Laut einem Bericht von Remszeitung ist die Entscheidung auf die rasante technologische Entwicklung seit 2018 zurückzuführen. In den neuen Grundsätzen betont Google, dass KI mit internationalen Rechtsprinzipien und Menschenrechten in Einklang gebracht werden soll. Die ursprünglichen Grundsätze waren als Reaktion auf internen Widerstand gegen ein Drohnenprogramm des US-Militärs verabschiedet worden.

Diese Neuausrichtung erfolgt in einem Umfeld, in dem der Einsatz von KI im Militär immer mehr an Bedeutung gewinnt. Künstliche Intelligenz wird zunehmend verwendet, um die Aufklärung und Entscheidungsfindung in verschiedenen Streitkräften zu verbessern. So testet die US-Marine das unbemannte Überwasserschiff „Saildrone Explorer“ und nutzt KI, um Informationen zu sammeln und die feindlichen Aktivitäten zu überwachen, wie Deutschlandfunk berichtet.

Wachstum des Marktes für militärische KI

Analysten prognostizieren ein rasantes Wachstum des Marktes für militärische KI-Anwendungen in den nächsten Jahren. Bereits jetzt wird KI in Konflikten wie dem Ukraine-Krieg eingesetzt, um militärische Vorteile zu erzielen. Die Bundeswehr nutzt KI-Technologien, um ihre Feldlager zu schützen, während die israelischen Sicherheitskräfte im Zuge der Hamas-Terrorattacke im Oktober 2023 erneut in die Kritik geraten sind.

Die Debatte über autonome Waffensysteme (AWS) ist in diesem Kontext besonders relevant. Experten warnen vor den Risiken, die von sogenannten „Killerrobotern“ ausgehen, und der Kontrolle über solche Systeme. Der UN-Generalsekretär António Guterres hat ein Verbot dieser Systeme bis 2026 gefordert. In der derzeit laufenden Resolution zu Kampfrobotern, die bei den UN verhandelt wird, sind rechtliche, ethische und sicherheitspolitische Herausforderungen im Mittelpunkt, wie auf Ethik und Militär dargelegt.

Internationale Konferenzen und rechtliche Herausforderungen

Am 29. und 30. April fand in Wien eine bedeutende Konferenz zu autonomen Waffensystemen statt, bei der Vertretern aus 144 Staaten diskutierten, wie die Entwicklung von AWS reguliert werden kann. Die Konferenz begann mit der Feststellung, dass die internationale Gemeinschaft rechtlich verbindliche Regeln für solche Systeme dringend benötigt. Die Ergebnisse aus Wien werden dem UN-Generalsekretär im Mai 2024 vorgelegt, um Fortschritte in der Regulierung von AWS zu erzielen.

Insgesamt zeigen diese Entwicklungen, dass ein dringender Handlungsbedarf besteht, um die Herausforderungen, die mit der militärischen Nutzung von KI und dem Aufkommen autonomer Waffensysteme einhergehen, rechtlich zu adressieren. Diverse Staaten führen bereits ethische Richtlinien für den Einsatz von KI ein, um die Verantwortung im Kriegsfall neu zu definieren und rechtliche Lücken zu schließen.