日報

全球千名專家呼籲禁止「殺手機器人」

刊登於 2015-07-30

全球人工智能領域的1000多名專家發出公開信呼籲,在世界範圍內禁止「殺手機器人」。圖為電影《終結者》 宣傳照片

電影《終結者》(The Terminator)描述了一個由機器人掌控的未來世界,它們試圖消滅人類、掌控一切。現實世界中,關於人工智能是否會「顛覆」人類的爭議也從未停止。7月28日,全球人工智能領域的1000多名專家發出公開信呼籲,在世界範圍內禁止「殺手機器人」。物理學家霍金(Stephen Hawking)、特斯拉汽車CEO馬斯克(Elon Musk)以及蘋果公司聯合創始人沃茲尼亞克(Steve Wozniak)都在這封信中簽名。

該公開信稱,利用人工智能技術研發的自動攻擊武器能夠獨立識別並攻擊目標,而且可能在數年內面世。專家們認為,如果任何軍事大國推動人工智能武器研發,全球軍備競賽無可避免;此外,這類武器並不昂貴,遲早會流入黑市並落入恐怖分子或獨裁者手中。

自動攻擊武器是暗殺、破壞國家穩定、控制人口以及有選擇性地殺害某個民族等的理想工具。因此我們認為,人工智能軍備競賽不會對人類有益。人工智能可以在不製造新的殺人武器的情況下,通過多種方式讓戰場變得對人類更安全,特別是對平民而言。

人工智能領域1000多名專家的公開信

上世紀五、六十年代,人工智能研究曾備受追捧,但後來被認為沒有重大的商業價值,於是陷入沉寂。近年來隨著計算機技術的發展,人工智能又出現了曙光,並被用於包括武器研究在內的多個領域。美國是最支持人工智能及機器人研究的國家之一,其國防部智庫海軍研究處(Office of Naval Research)曾於2013年向多所大學的研究人員提供750萬美元補助,以研究如何教自動機器人分辨對錯。聯合國隨後於2014年首次召開會議,討論致命自動武器的發展帶來的風險。不久前,一名技術人員在德國大眾汽車工廠遭到工業機器人「襲擊」身亡,儘管與自動武器無關,但這則新聞仍然引起了許多關於「機器人殺人」的討論。

公開信的簽署人之一馬斯克擔憂人工智能是在「召喚惡魔」,而另一位簽署人霍金也擔心人工智能可能是人類的終結者。霍金在去年11月接受BBC專訪時稱,人類受限於緩慢的生物學進化過程,無法與人工智能較勁,而且將會被其取代。而另一位簽署這封公開信的微軟研究院總經理霍爾維茨(Eric Horvitz)則傾向於為人工智能辯護,他説:「人工智能改變了許多事,這將帶來許多希望,許多可能的好處,當然也有其隱憂。我覺得有很多問題需要被解決,但我期待經由人類的引導,人工智能將帶來更多正面效應」。

120
美國政府2003年的報告顯示,無人武器市場非常大,到2019年可能達120億美元。

聲音

人工智能和機器人研發成本越來越低,發展太快讓不少專家擔憂,研究出發點不再是造福人類,而是用於國防和軍事。

香港城市大學計算機科學系副教授陳漢偉

不能確保自動武器系統會遵守國際法,各國也未開始討論這個問題,這是對人類的重大威脅。

機器人領域學者Noel Sharkey

致命性自主機器人

又稱「殺人機器人」,是美國等國研發的一種能代替士兵自動殺傷對手的機器人。這種殺人機器人將從由人遠程遙控,發展至由計算機軟件和傳感器裝置控制,進而全自動執行識別敵人、判斷敵情和殺死敵人等任務。但這種機器人可能誤傷已經喪失戰鬥力的傷員和準備投降的士兵,這種機器人一旦誕生,戰爭形態大變的時代或將到來。(資料來自維基百科)

來源:FT中文網BBC中文網南早中文網

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。