立足瑞士 报道世界

未來戰爭“機器人殺手”該為人類負責嗎?

伊莫珍·福尔克斯

設想一下,我們生活在一個機器人被派往戰場的世界。無人機在上空嗡嗡作響,精準地除掉地面上的”機械戰將們“,而在這場戰鬥中並不造成實質上的人員傷亡。這一切就像科幻小說–乍聽之下,行動精確。國與國之間可以隨意發動戰爭,而不必擔心會生靈塗炭。

阅读本文简体字版本请 点击这里

轉場,進入下一個更黑暗的場景。想像一下,藉由高科技武器我們可以提前數年就制定系統,以便鎖定跟踪特定族群或宗族。臉部辨識、性別、種族,所有這些標準都可以用來製造武器,旨在精準消滅政敵、無益的社群和令人頭疼的意見領袖。

半自動武器早已存在,並在使用中。比如那些美國在巴基斯坦和阿富汗使用的無人機襲擊。只要鎖定目標,對無人機進行程式設定,就可以起飛執行任務。目標當然是人類-華盛頓表示,它們除掉的是策畫恐怖事件的首領,為了防止喀布爾即將發生的恐怖襲擊。

但是這些武器-或者更準確地說,那些給它們程式設定的人-也不能保證萬無一失。無人機也曾殺害無辜平民,也曾襲擊婚宴。在20年前,士兵們還要在類似的進攻中親自奔赴沙場,而今調動半自動武器就可以保全士兵們的性命。但是,無人機的用處是用來殺人,而且也不能對殺對人握有十足的勝算。

我們需要制定限制條約嗎?

在我們最新的日內瓦內幕廣播節目中,我們研究了聯合國目前正在進行的複雜談判,以決定下一代全自動武器是否應受條約監管,還是被責令禁止。紅十字國際委員會(ICRC)是《日內瓦公約》的守護者,督促制定此類新武器使用規則的團體之一。

“這是關於把生死決定權交給機器來處理的風險。” 紅十字國際委員會高級政策顧問尼爾·戴維森(Neil Davison)說, “我們不應該依靠程序算法決定誰生誰死。”

紅十字國際委員會的立場是,不可預測的全自動武器以及那些以人為靶向的武器都應該被禁止。其他武器應該規範在“有意義的人控”範圍。

不出所料,在全自動武器研發方面遙遙領先的聯合國成員國中(美國、中國、俄羅斯及以色列)對該條約的設立猶豫不決。各國擔心,在該技術得到廣泛使用之前會受到相應限制。

科技超越道德底線

那些主張禁止“機器人殺手”的運動指出,這正戳中問題的要害。我們對社交媒體欣然接受,而不去追問其數據收集的真正用途。全自動武器的技術發展日新月異,人權觀察組織(Human Rights Watch)的瑪麗·威爾漢姆(Mary Wareham)對此頗是擔憂,與社交媒體一樣,我們還沒有真正理解其中的含義。

她指出,如果出現問題,我們將難以推卸責任。畢竟,機器人不能因戰爭罪而受到起訴。 “你該讓啟動武器系統的指揮官負全責嗎?”她問。 “當談到機器人殺手時,我們不可迴避問責的問題。”

“有意義的控制”,這個表達讓日內瓦研究生院國際法教授葆拉·蓋塔(Paola Gaeta)憂心忡忡,她也加入了我們的廣播節目。 “有意義的人控,到底意味著什麼?如果不在有意義的人控條件下,使用和開發武器怎麼辦?它的後果是什麼?我們又該如何歸咎責任?”

談判進展緩慢

這些都是目前外交官、人道主義組織和人權組織正在日內瓦進行談判的問題。它們必須在12月前作出答覆。屆時聯合國特定常規武器會議(CCW)將如期召開,決定是否就特定常規武器問題展開正式談判並制定條約。

此類談判通常要歷經數年,而且在未來幾個月內敲定一項條約草案,其希望也很渺茫。但人權組織警告說,時間已經不容再拖-關於“機器人殺手”是否需要監管的相關論題早在2013年就已提出。

在達成協議方面,特定常規武器會議並沒有良好的歷史記錄。它曾試圖統一起草關於地雷和集束彈藥的條約。但最終,因成員國之間的分歧過大,以至於談判被排除在聯合國議程之外,並由意見相同的國家進行單獨商定。最終形成《渥太華地雷公約》和《奧斯陸集束彈藥公約》。

像威爾漢姆這樣的活動家懷疑,圍繞全自動殺傷武器的談判將會重蹈覆轍。她的同事弗蘭克·斯利佩爾(Frank Slijper)就曾在裁軍和平組織Pax for Peace的談判中投入數年精力。儘管會鍥而不捨,但前景並不樂觀。

“如果我們在十年內達不成條約,那就太遲了。技術的進步比外交速度快得多,我擔心最壞的情況會發生。”

然而,坐在日內瓦談判室裡的紅十字國際委員會的高級顧問戴維森卻認為,有理由值得樂觀。 “越來越多的人已經達成共識,要根據全自動武器的類型來進行禁止或是監管。顯然,要做的工作還很多……但真正的機會還是有的。所以,我保持積極態度。”

(譯自英文:宋雲龍)

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团