Your browser is out of date. It has known security flaws and may not display all features of this websites. Learn how to update your browser[Schliessen]

Killer-Roboter


Bald auf einem Schlachtfeld in Ihrer Nähe?


Von Simon Bradley, Genf


Der menschenähnliche Roboter "Atlas", ein Projekt der US-Firma Boston Dynamics für den Wettbewerb "Robotic Challenge" der Forschungsbehörde DARPA des US-Verteidigungsministeriums. (Reuters)

Der menschenähnliche Roboter "Atlas", ein Projekt der US-Firma Boston Dynamics für den Wettbewerb "Robotic Challenge" der Forschungsbehörde DARPA des US-Verteidigungsministeriums.

(Reuters)

Immer häufiger übernehmen Maschinen die Aufgaben von Soldaten in Kriegen. Es wird erwartet, dass vollautomatische Waffensysteme in 20 bis 30 Jahren einsatzbereit sein werden. Auch die Schweiz rüstet mit ihrer Forschung im Bereich der mobilen Roboter auf.

Der internationalen Gemeinschaft gingen eben erst die Augen auf. Sie sei daran, die möglichen Auswirkungen zu erahnen, die autonome Roboter in künftigen Kriegen spielen könnten.

Dies sagte Laurent Masmejean kürzlich an einem Treffen in Genf zum Thema Bedrohung durch tödliche Roboter-Technologie ("lethal autonomous weapons systems", kurz LAWS). Masmejean ist Abrüstungs-Experte beim Eidgenössischen Departement für auswärtige Angelegenheiten (EDA).

Es sei zentral, zu prüfen, welche Anwendungen autonomer Fähigkeiten erwünscht, legal und akzeptabel seien, und welche Anlass zu Bedenken geben würden, sagte der Experte.

Schweizer Vertreter an der Konferenz betonten, dass ihre Forschung im Bereich der Verteidigung keine vollautomatischen Waffen beinhalte. "Doch wir werden sehen, wie in verschiedenen Forschungsbereichen technologische Fortschritte in Richtung autonomerer Systeme gemacht werden – ob tödlich oder nicht", sagte Quentin Ladetto, Leiter des Forschungsprogramms Technologie-Früherkennung bei Armasuisse, der Schweizer Beschaffungsorganisation für Rüstungsgüter.

In der Schweiz laufen gegenwärtig verschiedene kleine Forschungsprojekte für unbemannte Luft- und Bodenvehikel. Dies in Zusammenarbeit mit zahlreichen akademischen und industriellen Partnern. Dazu gehören etwa die Eidgenössische Technische Hochschule Zürich (ETH) und die US-Firmen Black-I Robotics und iRobot.

In seinem Langfristigen Forschungsplan (LFP) 2012-2016 unterstreicht das Eidgenössische Departement für Verteidigung, Bevölkerungsschutz und Sport (VBS) die Bedeutung von unbemannten Fahrzeugen, besonders für Beobachtungs-, Überwachungs- und Kommunikationsaufgaben. Diese werden laut VBS zunehmen.

"Im Vordergrund steht die Autonomie von unbemannten Plattformen und das Schaffen der Voraussetzungen für die Zulassung und einen verbreiteten Einsatz mobiler Roboter für sicherheitspolitische Aufgaben in der Schweiz", heisst es im LFP.

"Wenn wir die Forschung in Robotik und künstlicher Intelligenz genauer anschauen, geht der Trend klar in Richtung Autonomie", sagte Ladetto. "Auch wenn die Forschungsziele der akademischen Institute und Universitäten letztlich nicht militärischer Natur sind, können die unterschiedlichen Bausteine schliesslich zu erweiterten autonomen Fähigkeiten führen."

Hightech zur Rettung von Menschenleben: Andreas Ciossek mit einem Minensuch-Roboter in Thun. (Keystone)

Hightech zur Rettung von Menschenleben: Andreas Ciossek mit einem Minensuch-Roboter in Thun.

(Keystone)

Doch einige Experten zweifeln daran. Stuart Casey-Maslen, Forschungsleiter an der Geneva Academy of International Humanitarian Law and Human Rights, sagte, er wäre "erstaunt", falls die Schweiz nicht im Bereich der LAWS forschen würde.

"Mehr Autonomie ist offensichtlich die Zukunft für Militär und Sicherheitskräfte", sagte er. "Die Frage ist, ob – und falls Ja, wie und wo – die Technologie aus rechtlichen oder ethischen Gründen eingeschränkt wird. Ich mache mir besonders Sorgen um die Nutzung tödlicher autonomer Systeme, denn solche fallen nicht unter die Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen (CCW)."

Joe Farha, Spezialist für Militärwaffen bei der im englischen Manchester basierten Omega Research Foundation, ist ebenfalls der Meinung, dass jegliche zivile Forschung im Bereich Autonomie irgendeinmal in militärische oder Sicherheitskreise "überschwappen" wird.

"Es ist möglich, dass von unbemannten Systemen immer mehr verlangt wird und dass eine schrittweise Verbesserung der Fähigkeiten zu grösserer Autonomie führen kann", sagte er. Unbemannte Boden- oder Luftsysteme könnten auch als Waffenplattform benutzt werden.

Die Armee der Zukunft ist wahrscheinlich zunehmend unbemannt. In den letzten Jahren haben die USA 6 Milliarden Dollar für unbemannte Kriegssysteme ausgegeben. Die US Defense Advanced Research Projects Agency (DARPA) hat Militärroboter entwickelt und Projekte wie den extrem geländegängigen, einem Pferd ähnelnden Roboter LS3 des US-Unternehmens Boston Dynamics unterstützt.

Und Dokumente aus der US-Administration weisen darauf hin, dass Pläne bestehen, die Autonomie von Waffensystemen weiter auszubauen. In der "Unmanned Systems Integrated Roadmap FY2011-2036" schrieb das US-Verteidigungsdepartement, es "sieht unbemannte Systeme nahtlos kooperieren mit bemannten Systemen, während schrittweise der Anteil menschlicher Kontrolle und Entscheidungen über und für die autonomen Bestandteile der Truppenstruktur reduziert werden".

Bereits existiert immer mehr autonome Verteidigungstechnologie. So sind die Systeme MK 15 Phalanx Close-In Weapons System der US-Navy und sein landbasierter Gegenpart, das Counter Rocket, Artillery and Mortar System (C-RAM), bereits seit Jahren im Einsatz.

Was C-RAM betreffe, seien die Menschen zwar Teil der Entscheidungsfindung, dies aber hauptsächlich während der anfänglichen Programmierung des Roboters, sagte Peter W Singer, Experte für Kriegsroboter.

"Während des Einsatzes der Maschine verfügt der Operateur lediglich über ein Vetorecht, und der Entscheid, einen Entscheid des Roboters zu übersteuern, muss innerhalb einer halben Sekunde getroffen werden", so Singer. Die Gefahr dabei sei, dass dies zu einer "Automations-Tendenz" führen könne, das heisst, der Tendenz, den Entscheiden eines automatischen Systems zu vertrauen.

Doch auch anderswo werden solche Systeme eingesetzt. Israel betreibt sein automatisches Waffenabwehr-System Iron Dome, Deutschland hat das System NBS Mantis gebaut, um in Afghanistan Feldlager in Feindesnähe zu beschützen.

Andere Vorläufer vollautomatisierter Waffen finden sich in den südkoreanischen und israelischen Patrouillen-Robotern, die Menschen entdecken können und, falls ein Mensch den Befehl dazu gibt, ihre Waffen abfeuern können.

LAWS

87 der 117 Länder, welche die Konvention über konventionelle Waffen (CCW) unterzeichnet haben, nahmen vom 13. bis 16. Mai bei den Vereinten Nationen in Genf an einem Treffen von Experten für tödliche autonome Waffensysteme (LAWS) teil.

Das Ziel war, einen Prozess anzustossen, um Beschränkungen und Verantwortlichkeiten im Bereich LAWS zu definieren.

Am nächsten Jahrestreffen der CCW am 14. November werden die Mitgliedsländer entscheiden, ob der Prozess fortgesetzt werden soll.

Aktivistengruppen verlangen ein präventives Verbot solcher zukünftiger Waffensysteme. Als Beispiel erwähnen sie Laser, die blind machen. Diese hat die internationale Gemeinschaft in einem internationalen Protokoll 1995 verboten, bevor sie zum Einsatz gebracht werden konnten.

Die Schweiz war eines der 87 Länder, die den Prozess zur Eindämmung von LAWS angestossen haben, Waffen, die ohne menschliche Intervention Ziele auswählen und angreifen können.

Bis heute haben sich lediglich 5 Länder den Aktivisten angeschlossen, die ein Verbot von LAWS fordern. Darunter Kuba und Pakistan.

Viele andere, darunter Frankreich und Grossbritannien, unterstrichen in Genf, dass ein bedeutender Anteil menschlicher Kontrolle über Anvisierungs- und Angriffs-Entscheide beibehalten werden soll.

Die USA sprachen sich für "angemessene" menschliche Kontrolle über die Autonomie von Waffensystemen aus. Israel hingegen betonte die Wünschbarkeit autonomer Systeme.

"Während verschiedene Nationen ihre technologischen Fähigkeiten erweitern, kann es sein, dass sich viele in Richtung voller Autonomie bewegen, denn diese Waffen bieten viele Vorteile", sagte Mary Wareham, Waffenexpertin bei der Menschenrechts-Organisation Human Rights Watch.

"Kurze Reaktionszeit, geringeres Risiko für die eigenen Soldaten, tiefere Kosten, Abschirmung vor den Auswirkungen menschlicher Emotionen beim Entscheid, Gewalt anzuwenden."

Auch in der Luft geht die Entwicklung bereits über die einfache Drohne hinaus in Richtung grösserer Autonomie. Das unbemannte Flugzeug X-47B der US-Navy kann selbständig auf einem Flugzeugträger starten, landen und nachtanken. Grossbritannien präsentierte derweil das autonome und unbemannte Tarnkappen-Flugzeug Taranis. Beide verfügen angeblich über anpassbare Waffenschächte.

"Sinnvolle menschliche Kontrolle"

Nichtregierungs-Organisationen haben keine Möglichkeit zu verifizieren, was die Länder unter "sinnvoller menschlicher Kontrolle" der autonomeren Systeme verstehen. Anstrengungen, solche Waffensysteme einzudämmen, haben bisher nicht gefruchtet. Ein präventives Verbot sei die einzige Lösung, betonen sie.

"Ich habe versucht, einen Dialog mit Waffenproduzenten anzustossen, doch sie sind offen gesagt überhaupt nicht interessiert am Humanitären Völkerrecht (IHL)", sagte Friedensforscher Jürgen Altmann, Mitbegründer des Internationalen Komitees zur Kontrolle von Roboterwaffensystemen.

Laut Abrüstungs-Spezialist Masmejean hingegen ist die gegenwärtige Rechtslage "durchaus solid", um künftige Veränderungen zu handhaben. "Ob autonome Waffensysteme beteiligt sind oder nicht; jede Anwendung von Gewalt oder von Waffensystemen muss in Einklang stehen mit dem gesamten Rahmenwerk internationaler Gesetze, besonders mit dem IHL und den Prinzipien von Unterscheidung, Verhältnismässigkeit und Vorsichtsmassnahmen."

Doch die internationale Gemeinschaft müsse die rechtlichen Bewertungen neuer Waffen, die Mittel und Methoden zur Kriegführung und mögliche Verantwortungslücken ganz genau überprüfen, so Masmejean.

Altmann hingegen ist nicht überzeugt: "Sie mögen daran interessiert sein, die Auswirkungen von Kriegen zu limitieren, wenn es um mehr Präzision geht, die zu besseren Produkten führen kann. Doch sie wollen lieber Neuerungen hervorbringen. Der Trend geht hier in Richtung unbemannte Vehikel, die rascher reagieren können. Und das ist genau jene Richtung, die wir verhindern möchten", sagte er.

"Es braucht einen politischen Entscheid von Gesellschaften und Nationen, dies einzuschränken. Damit sich militärische und technologische Trends nicht völlig frei entfalten können."


(Übertragen aus dem Englischen: Christian Raaflaub), swissinfo.ch



Links

×