Externer Inhalt

Den folgenden Inhalt übernehmen wir von externen Partnern. Wir können nicht garantieren, dass dieser Inhalt barrierefrei dargestellt wird.

Modell eines von Menschen gelenkten, roboterähnlichen Militärgeräts an einer Ausstellung in der russischen Hauptstadt Moskau. (Archivbild)

KEYSTONE/EPA/SERGEI ILNITSKY

(sda-ats)

Der Streit über Kontrollen und Schranken für sogenannte Killerroboter entzweit die Weltgemeinschaft. Im Ringen um einem Minimalkonsens haben Abrüstungsexperten in Genf ihr Treffen ohne offizielles Abschlusspapier beendet.

Eine Mehrheit der Teilnehmer aus mehr als 70 Ländern habe sich für Verhandlungen über eine neue internationale Gesetzgebung ausgesprochen, eine kleine Gruppe von Rüstungsmächten sei aber dagegen, hiess es zum Ende der Verhandlungen in der Nacht zum Samstag.

Eine Einigung hätte nach den Gepflogenheiten im Konsens verabschiedet werden müsste. Es geht darum, ob Herstellung und Einsatz von autonomen Waffen durch einen international verbindlichen Vertrag geregelt werden müssen. Die USA und andere Länder mit grosser Rüstungsindustrie sind dagegen.

Autonome Waffen sind so programmiert, dass sie mit Hilfe künstlicher Intelligenz selbst lernen, was ein Ziel ist und dieses ohne menschliches Zutun zerstören. Es kann sich um unbemannte Drohnen handeln, aber auch um Schiffe, Panzer, Raketenwerfer und andere Waffen.

Es gibt eine gewisse Grauzone zwischen schon vorhandenen automatischen und autonomen Waffen, aber vollautonome Kampfmaschinen werden bislang nicht eingesetzt. Die englische Abkürzung ist LAWS und steht für Lethal Autonomous Weapons Systems.

Die Staatenvertreter waren sich eigentlich einig, dass auch autonome Waffen unter menschlicher Kontrolle bleiben und mit dem Völkerrecht, das Regeln für Kriegshandlungen umfasst, vereinbar sein müssen.

IKRK: Sinnvolle menschliche Kontrolle unmöglich

Länder wie die USA und Israel sehen keinen Anlass, einen neuen Vertrag abzuschliessen. "Aus US-Sicht liegt kein Wert an sich darin, eine Waffe von Menschenhand zu bedienen und nicht durch ein autonomes System", sagte der US-Vertreter Karl Chang diese Woche.

Gegner wie die Kampagne "Stoppt Killerroboter" sagen dagegen, tödliche autonome Waffen seien eine völlig neue Dimension der Kriegsführung - und weil sie nicht explizit in alten Verträgen erwähnt sind, könnten Akteure mit Spitzfindigkeiten in der Auslegung alter Vertragstexte für diese Waffen einen rechtsfreien Raum schaffen.

Völkerrechtsexperten des Internationalen Komitees vom Roten Kreuz (IKRK) argumentieren, sinnvolle menschliche Kontrolle sei bei diesen Waffen gar nicht mehr möglich, unter anderem wegen "unserer kognitiven Grenzen bei Interaktionen zwischen Mensch und Maschine".

Unterschiedliche Vorschläge

Die Arbeitsgruppe sollte Empfehlungen für die Vertragsstaaten der 35 Jahre alten Uno-Konvention über bestimmte konventionelle Waffen erarbeiten, die sich im November in Genf treffen. Österreich, Brasilien und Chile schlugen vor, formelle Verhandlungen über einen völkerrechtlichen Vertrag zu empfehlen, der menschliche Kontrolle sicherstellt.

Deutschland und Frankreich schlugen eine politische Erklärung vor, in der die Parteien "betonen, dass Menschen weiterhin die letztendlichen Entscheidungen über den Einsatz von tödlichen Waffen fällen und genügend Kontrolle über tödliche Waffen, die sie einsetzen, behalten". Kritiker sagen aber, so eine Erklärung wäre unverbindlich und erwecke damit nur den Anschein, dass wirklich etwas zum Schutz der Menschen vor solchen Waffen getan würde.

Neuer Inhalt

Horizontal Line


subscription form Deutsch

Aufruf, den Newsletter von swissinfo.ch zu abonnieren

Melden Sie sich für unseren Newsletter an und Sie erhalten die Top-Geschichten von swissinfo.ch direkt in Ihre Mailbox.










Umfrage zu SWI swissinfo.ch

Online-Umfrage ausfüllen: Tastatur und eintippen close-up

Liebe Auslandschweizer, sagen Sie uns Ihre Meinung.

Meinungsumfrage

SDA-ATS