立足瑞士 报道世界

未来战争“机器人杀手”该为人类买单吗?

伊莫珍·福尔克斯

设想一下,我们生活在一个机器人被派往战场的世界。无人机在上空嗡嗡作响,精准地除掉地面上的”机械战将们“,而在这场战斗中并不造成实质上的人员伤亡。这一切就像科幻小说–乍一听,非常靠谱。国与国之间可以随意发动战争,而不必担心会生灵涂炭。

閱讀本文繁體字版本請 點擊此處

转场,进入下一个更黑暗的场景。想象一下,借助高科技武器我们可以提前数年就编好程序,以便锁定跟踪特定人群或宗族。面部识别、性别、种族,所有这些标准都可以用来制造武器,旨在精准消灭政治对手、无用社区和令人头疼的活动家。

半自动武器早已存在,并在使用中。比如那些美国在巴基斯坦和阿富汗使用的无人机袭击。只要锁定目标,对无人机进行编程,就可以起飞执行任务。目标当然是人类-华盛顿表示,他们干掉的是策划恐怖事件的头目,为了防止喀布尔即将发生的恐怖袭击。

但是这些武器-或者更准确地说,那些给它们编程的人-也不能保证万无一失。无人机也曾杀害无辜平民,也曾袭击婚礼派对。早在20年前,士兵们还要在类似的攻打中亲自奔赴沙场,而今调动半自动武器就可以保全士兵们的性命。但是,无人机的用处是用来杀人,而且也不能总是胜算杀对了人。

我们需要制定限制条约吗?

在我们最新的日内瓦内部播客中,我们研究了联合国目前正在进行的复杂谈判,以决定下一代全自动武器是否应受条约监管,还是被责令禁止。红十字国际委员会(ICRC)是《日内瓦公约》的守护者,它是督促制定此类新武器使用规则的团体之一。

“这是关于把生死决定权交给机器来处理的风险。” 红十字国际委员会高级政策顾问尼尔·戴维森(Neil Davison)说, “我们不应该依靠程序算法决定谁生谁死。”

红十字国际委员会的立场是,不可预测的全自动武器以及那些以人为靶向的武器都应该被禁止。其他武器应该规范在“有意义的人控”范围。

不出所料,在全自动武器研发方面遥遥领先的联合国成员国中(美国、中国、俄罗斯及以色列)对该条约的建立犹豫不决。他们担心,在该技术得到广泛使用之前会受到相应限制。

科技超越道德底线

那些主张禁止“机器人杀手”的运动指出,这正戳中问题的要害。我们对社交媒体欣然接受,而不去追问其数据收集的真正用途。全自动武器的技术发展日新月异,人权观察组织(Human Rights Watch)的玛丽·威尔汉姆(Mary Wareham)对此颇是担忧,与社交媒体一样,我们还没有真正理解其中的含义。

她指出,如果出现问题,我们将难以推卸责任。毕竟,机器人不能因战争罪而受到起诉。 “你该让启动武器系统的指挥官负全责吗?”她问。 “当谈到机器人杀手时,我们绕不开问责差距的问题。”

“有意义的控制”,这个表达让日内瓦研究生院国际法教授葆拉·盖塔(Paola Gaeta)忧心忡忡,她也加入了我们的播客。 “有意义的人控,到底意味着什么?如果不在有意义的人控条件下,使用和开发武器怎么办?它的后果是什么?我们又该如何归咎责任?”

谈判进展缓慢

这些都是目前外交官、人道主义组织和人权组织正在日内瓦进行谈判的问题。他们必须在12月前作出答复。届时联合国特定常规武器会议(CCW)将如期召开,决定是否就特定常规武器问题展开正式谈判并制定条约。

此类谈判通常要历经数年,而且在未来几个月内敲定一项条约草案,其希望也很渺茫。但活动人士警告说,时间已经不容再拖-关于“机器人杀手”是否需要监管的相关论题早在2013年就已提出。

在达成协议方面,特定常规武器会议并没有良好的历史记录。它曾试图统一起草关于地雷和集束弹药的条约。但最终,因成员国之间的分歧过大,以至于谈判被排除在联合国进程之外,并责由思路相同的国家进行单独商定。最终形成《渥太华地雷公约》和《奥斯陆集束弹药公约》。

像威尔汉姆这样的活动家怀疑,围绕全自动杀伤武器的谈判将会重蹈覆辙。她的同事弗兰克·斯利佩尔(Frank Slijper)就曾在裁军和平组织Pax for Peace的谈判中投入数年精力。尽管会契而不舍,但前景不容乐观。

“如果我们在十年内达不成条约,那就太迟了。技术的进步比外交速度快得多,我担心最坏的情况会发生。”

然而,坐在日内瓦谈判室里的红十字国际委员会的高级顾问戴维森却认为,有理由值得乐观。 “越来越多的人已经达成共识,要根据全自动武器的类型来进行禁止或是监管。显然,要做的工作还很多……但真正的机会还是有的。所以,我保持积极态度。”

(译自英文:宋云龙)

您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团

瑞士资讯SWI swissinfo.ch隶属于瑞士广播电视集团