日报

联合国将于2017年探讨监管“杀手机器人”,美中俄同意参加

刊登于 2016-12-19

联合国计划于2017年正式探讨禁止“杀手机器人”。图为2010年7月8日,阿富汗,美军军士专家正维修一个机器人。
联合国计划于2017年正式探讨禁止“杀手机器人”。图为2010年7月8日在阿富汗,美军军事专家正维修一个机器人。

联合国近日在瑞士日内瓦举行《特定常规武器公约》(Convention on Certain Conventional Weapons,CCW)五年期审查会议上,123个缔约国投票决定将于2017年召集各国政府专家,就监管甚至禁止“杀手机器人”的议题展开正式讨论。

杀手机器人指无需等待人类下达指令即可自主寻找攻击目标的机器人,被统称为“致命自主武器系统”(Lethal Autonomous Weapons Systems)。这是多国政府首次在联合国框架下就正式商讨如何进行规管达成协议,会议预期于明年4月或者8月召开,目前已有88个国家同意参加——其中包括已经花费数十亿美元开发这类武器的美国、中国和俄罗斯;印度裁军代表 Amandeep Singh Gill 大使将领导这项工作。

过去3年,在“禁止杀戮机器人运动”下团结的65个非牟利组织已经持续呼吁禁止这类武器;参与组织之一人权观察警告,杀手机器人技术日益精进,必须尽快阻止。

日内瓦会议的决定是朝‘禁止机器人杀手’谈判迈出的重要一步,但我们没有时间可以浪费,一旦这些武器被制造出来后,就没有办法再阻止‘它们’,我们现在就必须采取措施先发制人。

人权观察武器部主任 Steve Goose

到目前为止,已有包括阿根廷、秘鲁、巴基斯坦、古巴、埃及在内的19个国家呼吁禁止“致命自主武器系统”,而在2014年时,还只有5个国家支持这些措施。但目前的支持者名单上并没有美国、中国和俄罗斯。

美国军方一直专注于研发能自动驾驶军用卡车和直升机,以及协调大规模无人机机群飞行的人工智能系统。2016年夏天,中国政府宣称正在为巡航导弹添加人工智能系统,但在今次日内瓦会议上,中国代表称,有需要签署一项关于致命自主武器系统的新国际协议。

CCW 及其议定书的目标是制定新规则来保护平民免受武装冲突的伤害,并保护战斗人员免受不必要的痛苦,旨在禁止或限制使用某些被认为具有过分伤害力或滥杀、滥伤作用的常规武器。过去,CCW 已经决定禁止地雷、燃烧武器和激光致盲武器。

硅谷的许多精英,包括苹果公司联合创办人沃兹尼亚克(Steve Wozniak)和特斯拉创办人马斯克(Elon Musk),都对杀手机器人的发展表示担忧。沃兹尼亚克和马斯克曾在2015年签署公开信,敦促联合国尽快处理这个问题,呼吁在国际上禁止制造致命的自主武器。

该公开信称,利用人工智能技术研发的自主攻击武器可能在数年内面世,认为如果任由各国政府推动人工智能武器研发,全球军备竞赛无可避免;此外,这类武器并不昂贵,迟早会流入黑市并落入恐怖分子或独裁者手中,对人类的整体和平造成威胁。

1000+
2015年7月28日,全球人工智能领域的1000多名专家发出公开信呼吁,在世界范围内禁止“杀手机器人”。

声音

随着这种军事技术的不断发展,我们需要对其带来的风险进行深入研究。

美国麻萨诸塞州众议员 James McGovern

不能确保自动武器系统会遵守国际法,各国也未开始讨论这个问题,这是对人类的重大威胁。

机器人领域学者 Noel Sharkey

人权观察

人权观察(Human Rights Watch,HRW)创立于1978年,当时名为赫尔辛基观察,是为了监视苏联对赫尔辛基协议的执行情况。日益壮大后,该组织又以“观察委员会”的名义扩展到世界上的其他地区。1998年,所有委员会在人权观察的旗帜下统一起来,成为一个非政府的国际组织,目前总部设在美国纽约,以调查、促进人权问题为主旨。根据世界人权宣言,人权观察反对侵犯基本人权,包括死刑、歧视同性恋等;人权观察还鼓励将自由与基本的人权相联系,比如宗教自由、新闻自由等。(资料来自维基百科,百科内容以 CC BY-SA 3.0 授权)

来源:RecodeBuzzFeedHRW每日邮报

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读