Killer-Roboter sind die Zukunft – zumindest wenn es nach Russland und den USA geht. Der Krieg in der Ukraine treibt die Entwicklung autonomer Waffensysteme kräftig an. Doch welche Gefahren bergen Drohnen, die selbstständig Ziele identifizieren, auswählen und zerstören können?
Es wäre der Beginn einer neuen Ära der Kriegsführung. Seit Jahren diskutieren Militär-Experten, Politiker und Wissenschaftler über das Potenzial autonomer Kampfdrohnen. Der russische Überfall auf die Ukraine hat der Debatte neuen Auftrieb gegeben. Und: Je länger sich der Krieg hinzieht, desto wahrscheinlicher könnte der Einsatz von Maschinen werden, die auf dem Schlachtfeld selbstständig Ziele identifizieren, auswählen und zerstören.
Panzerkiller “Marker”Russland schickt wohl Kampfroboter in Donbass
Darauf deutet auch eine aktuelle Mitteilung des US-Verteidigungsministeriums hin. Darin bekräftigt das US-Militär, die Entwicklung und den Einsatz von autonomen Waffen verstärkt vorantreiben zu wollen. Es ist das erste Mal seit fast einem Jahrzehnt, dass das Ministerium den Fokus auf Waffensysteme mit künstlicher Intelligenz (KI) legt. Die Mitteilung folgt auf einen 2022 vereinbarten Umsetzungsplan der NATO, der darauf abzielt, den “technologischen Vorsprung” des Bündnisses bei den sogenannten Killer-Robotern zu erhalten.
Noch setzen weder die Ukraine noch Russland KI-Waffen an der Front ein. Das könnte sich allerdings bald ändern. Die Ukraine verfügt bereits über halbautonome Drohnen, die mithilfe von KI feindliche Drohnen abwehren. Der ukrainische Minister für digitale Transformation, Mychailo Fedorow, ist sich sicher, dass Killer-Roboter der “logische und unvermeidliche nächste Schritt” sind. Sein Land habe “in diese Richtung sehr viel Forschung und Entwicklung” betrieben, sagt er der Nachrichtenagentur AP. “Ich denke, dass es ein großes Potenzial dafür in den nächsten sechs Monaten gibt.”
Russlands Drohen bislang nicht besonders intelligent
Auch Russland entwickelt nach eigenen Angaben autonome Waffen. So sollen unbemannte “Marker”-Bodenfahrzeuge mit entsprechenden Waffenmodulen so umgerüstet werden, dass sie gegen Panzer wie den Leopard 2 oder den M1 Abrams eingesetzt werden können. Die KI soll dabei zwischen den Panzertypen unterscheiden und auch autonom beurteilen können, ob es sich beim Ziel um einen Zivilisten oder ein Kampffahrzeug handelt. Belege für derartige Fähigkeiten gibt es bislang jedoch nicht.
Ukraine geht “nächsten Schritt”“Shahed Catcher” gegen iranische Kamikaze-Drohnen
Russland könnte aber durchaus KI-Waffen etwa aus dem Iran bekommen. Die bereits in großer Zahl von Moskau eingesetzten Schahed-Drohnen iranischer Bauart haben Kraftwerke zerstört und die ukrainische Bevölkerung terrorisiert – sie gelten aber als nicht besonders intelligent. Doch Teheran hat laut eigenen Angaben weitere Drohnen-Typen im Arsenal, von denen einige sehr wohl mit KI arbeiten.
Die Ukraine wiederum könnte ihre halbautonomen Kampfdrohnen laut Angaben der westlichen Hersteller ohne allzu große Probleme auch in ganz unabhängig agierende Waffen umbauen. Bei diesen Drohnen – darunter die amerikanische Switchblade 600 und die polnische Warmate – wählt bisher stets ein Mensch mithilfe einer Livebild-Übertragung das Ziel aus. Ein KI-System erledigt dann den Rest.
“Die Technologie, um mit Switchblade eine vollständig autonome Mission auszuführen, ist im Grunde bereits vorhanden”, sagte Wahid Nawabi, Chef des Herstellers AeroVironment, dem Redaktionsnetzwerk Deutschland. Gängige Systeme sind bereits in der Lage, Ziele wie gepanzerte Fahrzeuge durch Abgleich mit gespeicherten Bildern zu erkennen. Es ist aber umstritten, ob die Technik hinreichend zuverlässig ist, um vollständig auszuschließen, dass sich eine Maschine irrt und dann Menschen tötet, die womöglich nichts mit aktuellen Kampfhandlungen zu tun haben.
KI besser als Mensch?
Erforderlich für den Einsatz von KI-Waffen ist laut Nawabi ein politischer Kurswechsel, der es erlaubt, den Menschen aus der entsprechenden “Entscheidungsschleife” herauszunehmen. Computer könnten schließlich deutlich schneller reagieren als Menschen. Befürworter vollautonomer Waffensysteme argumentieren zudem, dass die Technologie viele Tote verhindern könnte, indem sie eigene Soldaten vom Schlachtfeld fernhält. Außerdem könnten militärische Entscheidungen mit übermenschlicher Geschwindigkeit getroffen werden, wodurch die Verteidigungsfähigkeit extrem gesteigert würde.
“Sky Wiper” EDM4SDas Gewehr, mit dem die Ukraine Drohnen vom Himmel holt
Zu den Befürwortern zählt auch der russische Präsident Wladimir Putin. Er hatte schon 2017 die Bedeutung von KI-Systemen für die künftige Kriegsführung betont. Er sagte damals: Wer diese Technologie dominiere, werde die Welt beherrschen. Und nach der neusten Mitteilung des US-Verteidigungsministeriums zu urteilen, sieht das Weiße Haus das ähnlich.
Organisationen wie die Campaign to Stop Killer Robots sehen die Enttabuisierung von Killer-Robotern hingegen kritisch. Sie fürchten eine Zukunft, in der autonome Waffensysteme speziell für die Bekämpfung von Menschen und nicht nur von Fahrzeugen, Infrastruktur und anderen Waffen entwickelt werden. Auf ihrer Website argumentieren die Aktivisten, dass Entscheidungen über Leben und Tod in Kriegszeiten in menschlicher Hand bleiben müssen. Sie einem Algorithmus zu überlassen, käme der ultimativen Form der digitalen Entmenschlichung gleich.
Die Menschenrechtsorganisation Human Rights Watch sieht eine weitere Gefahr: Solche autonomen Technologien senken demnach die Hemmschwelle für kriegerische Konflikte, indem sie die wahrgenommenen Risiken verringern. Zudem wirft sie unter anderem den USA, Russland, China, Südkorea und der Europäische Union vor, die Welt in ein kostspieliges und destabilisierendes neues Wettrüsten zu stürzen, indem sie verstärkt in autonome Waffensysteme investieren. Die Folge könnte sein, dass die mächtige Technologie beispielsweise in die Hände von Terroristen gerät.
Keine internationalen Regeln
Das US-Verteidigungsministerium versucht, einige dieser Bedenken in ihrer Mitteilung auszuräumen. Darin wird erklärt, dass die USA autonome Waffensysteme mit einem “angemessenen Maß an menschlichem Urteilsvermögen bei der Anwendung von Gewalt” einsetzen werden. Human Rights Watch bemängelt jedoch, dass nicht klargestellt wird, was der Begriff “angemessenes Maß” bedeutet. Zudem werde nicht gesagt, wer dieses Maß bestimmen soll.
“Leopard 2”, Challenger und T-14Die modernsten Kampfpanzer der Welt
Und selbst wenn die USA strenge Richtlinien für den Einsatz von Killer-Robotern aufstellen sollten, gibt es keine Garantie, dass sich Länder wie Russland oder China daran halten werden. Versuche, internationale Regeln festzulegen, blieben in der Vergangenheit stets ohne Erfolg. Verbote lehnt derweil nicht nur Russland ab, auch die USA sind strikt dagegen.
Der australische Aktivist und Wissenschaftler Toby Walsh hofft, dass es zumindest in einigen Bereichen eine Einigung auf Regeln für KI-Waffen geben wird – etwa ein Verbot von Systemen, die auf Gesichtserkennung und andere Daten zurückgreifen, um bestimmte Personen oder Personengruppen zu identifizieren und zu töten. “Wenn wir nicht aufpassen, werden sie sich noch leichter ausbreiten als Atomwaffen”, sagt der Autor des Buches “Machines Behaving Badly” der Nachrichtenagentur AP. “Wenn ein Roboter dazu gebracht werden kann, eine Person zu töten, kann er auch dazu gebracht werden, tausend zu töten.”
Quelle : NTV