端聞

企業應該為使用機器人繳税嗎?歐盟正在考慮這件事

歐盟認為,未來的機械人將不只是人類的工具,而是「有自己的權利、會自己學習、自由行動並做出決策」的「電子人」,需要考慮税收、福利、法律責任等問題。


歐盟將推動機器人成為合法勞動力。
歐盟將推動機械人成為合法勞動力。攝:Francois Lenoir/REUTERS

在電影或小說的世界裏,人類對具有人工智能(Artificial Intelligence,AI)的機械人有着不盡相同的想象:它們或者如同《人工智能》中的 AI 小男孩大衛一般「多愁善感」,又或者像《智能叛侶》(Ex Machina)中的 AI 美女艾娃那樣「心狠手辣」。

AI 能否取代人類的所有工作,甚至顛覆人類統治——此類天馬行空的討論還在繼續,而電影中的各種想象已經逐漸在現實世界裏成真。

現實中的 AI 機械人有多厲害?

如今的 AI 可以模仿藝術大師畫畫為政客撰寫演講稿準確預測人類行為。在日本甚至誕生了全球首位由 AI 擔任的創意總監,而中國的 AI 則將參加高考,一試深淺。

Google 及其母公司 Alphabet 是這一領域的佼佼者,在機械人動作控制及 AI 算法方面都有令人驚豔的成果:今年2月,Alphabet 旗下波士頓動力公司(Boston Dynamics)發布一款協調能力驚人的雙足機械人 Atlas,它能按照設定準確快速地搬運箱子,可以在冰天雪地中穩健行走,甚至被人用力打倒後還能自行站起來;3月,Google 旗下 Deepmind 公司開發的 AI 程式 AlphaGo 在舉世矚目的「人機圍棋對弈」中,力克人類頂級棋手李世石,造成全球轟動。

這意味着,誇張一點地說——AI 機械人在「身體機能」和「智力」上都已超過人類。而 Google 去年將其 AI 算法庫開源後,更將加速這一領域的發展。

投資者自然也在不斷湧入這個商機無限的領域。根據分析公司 Quid 的研究數據,2015年,AI 企業的投資成本創下85億美元記錄,這一數字大約為2010年的4倍。Google 外,Facebook、IBM、亞馬遜和微軟等科技企業都試圖在產品中建立 AI 服務的生態系統。AI 公司 MetaMind 創始人 Richard Socher 稱:「這項技術將會用在各行各業中……AI 將遍地開花。」

這些機器人已經和過去不一樣了,除了取代人類雙手,它們還有取代人類大腦的潛力。

英國央行首席經濟學家 Andy Haldane

「電子人」的權利與義務

隨着技術的不斷發展,在工業界,擁有「工作崗位」的 AI 機械人數量也與日俱增。英國央行去年發布報告指,未來10到20年間,英國和美國將分別有1500萬和8000萬份工作被機械人取代,佔兩國將近一半的勞動力。分析認為,智能機械人的興起會取代更多中端技術職位,而更低端或更高端的技術則仍將由人類承擔,給就業市場造成一個中間位「空檔」。

這一數量不斷增長的「群體」自然引起政府部門注意。歐洲議會(European Parliament)法律事務委員會最近向歐盟委員會(European Commission)提交了一份動議草案,要求歐盟把最先進的 AI 機械人的身份定義為「電子人」(Electronic Person),並賦予它們「特定的權利與義務」。

我們同機械人之間日益頻繁的溝通與互動,會對人類社會在精神與物質層面的現有關係產生潛在影響。尤其是對智能看護機械人與被照顧者而言,他們之間產生的感情和依戀,讓我們不得不重新審視人類尊嚴、道德觀等問題。

歐洲議會法律事務委員會提交的草案

該草案指,AI 機械人不僅在工業領域應用增多,還承擔起手術、護理等精細任務,未來的機械人將不再只是人類的工具,而是「有自己的權利、會自己學習、自由行動並做出決策」的「電子人」,因此需要為它們考慮税收、福利、法律責任等問題。

草案提出,在 AI 機械人受到法律約束的前提下,僱主應該給它們開設賬戶繳納社會保險,還應向政府彙報因使用機械人而節省出來的人工。政府據此徵收「社會安全税」,給人類發放相應補貼;此外,機械人的創新成果也應受到知識產權保護。

歐盟將在一年時間內對該草案投票表決。不過,即便最終通過,這也只是一份沒有約束力的決議,因為歐洲議會很難根據此決議獲得授權立法。

多餘的擔心?

歐洲議會之所以推出這份動議草案,更多還是出於對機械人將造成人類大量失業,以及可能會對人類造成身體傷害的擔心,因此想通過法律和經濟手段進行規管與補償。

不過,美國美林銀行(Merrill Lynch)指出,雖然機械人會取代一部份人類的工作,但另一些和機械人製造相關的行業會產生大量新崗位,例如電腦工程師、機械人控制員等。美林指,人類目前在工業領域對機械人的使用,已經催生了1000萬個新的職位,到2020年前還會增加350萬個相關職位。

今年6月底刊出的《經濟學人》(Economist)雜誌封面報導 March of the machines,指出「機械讓個人工作者生產更多產品,降低大量商品的價格,擴大需求並且將需要更多工人」;「全新的工作職位將被創造出來,對機器進行監督」;「隨着公司變得更大,他們將會需要更多經理、會計和其他職位」。

在安全性方面,處於業界領先地位的 Google 居安思危。6月初,Google Deepmind 與牛津大學的研究人員聯合發表論文,提出一種被叫做「紅色按鈕」的算法框架,希望 AI 機械人在傷害人類或環境時,可以被關機;隨後,Google Brain 研究團隊也聯合史丹福大學(Stanford University)、加州大學伯克萊分校(UC Berkeley)以及非盈利研究公司 OpenAI 的科學家發表論文,列舉出為保證 AI 機械人安全及可靠,在研發階段需要考慮的五大關鍵問題。

《經濟學人》總結道,AI 的發展使得「全新的、前所未有的、難以想象的產業將會湧現」,並認為「我們應該歡迎 AI,而不是害怕 AI」。

35-49 %
2013年,牛津大學的 Carl Benedikt Frey 和 Michael Osborne 通過核查702種職業的計算能力,發現美國47%的工人面臨工作被機械人取代的風險;後續研究指出英國有35%的職業可能被取代,在日本這個比例是49%。

聲音

我們很有必要給人工智能加上一個「紅色按鈕」,以阻止其傷害其他人類和環境……但人工智能也可能學會如何防止自己被人類關機,比如讓「紅色按鈕」失效等。我們的論文提供了一種如何讓人工智能無法學會這一招的可行方法。

Deepmind 和牛津大學的合作論文

計算機的視覺如果比人更好,為什麼還要人去開車?應該讓機器開車。現在是醫生看 X 光,未來如果讓機器看是否會做出更準確的診斷?開源之後,如果全世界的聰明人都給 Google 很好的回饋,Google 會有更好的發現,讓產品和服務更完美。

Google 母公司 Alphabet 執行董事長 Eric Schmidt

我會因為一家餐廳的服務員和藹可親而經常光顧,但如果有一天你告訴我,那個可愛的女前台變成了一個機器人……我是不會再去的了。

網友@stanleyleung

Google列出AI機械人研發五大問題

Google Brain 等發表的論文稱,為保證 AI 機械人安全及可靠,在研發階段需要考慮五大問題,並以清掃機械人(Cleaning Robot)為例,將這五個問題解釋如下:(1)如何避免 AI 在完成目標的時候,不破壞所在環境?負面例子:清掃機械人可能會打翻前進路上的花瓶,這樣它就掃得更快了。(2)如何避免機制被破解,AI 在行為上出現博弈?負面例子:清掃機械人可能會將地上的髒物用其它東西遮擋起來,讓自己看不見,這樣它就不用清掃了。(3)如何在訓練過程中,讓 AI 有效理解指令,避免對用戶造成干擾?負面例子:清掃機械人若不能有效理解清掃任務,在遇到每一件物品的時候都要求用戶進行判斷,用戶會受到嚴重干擾。(4)如何保證 AI 在自主學習時做出超過安全範圍的「探索」,產生負面影響?負面例子:清掃機械人在試驗拖地策略時,可能會將濕拖把放到電源插座上。(5)如何讓 AI 能夠適應工廠測試環境與用戶使用環境的不同?負面例子:清掃機器人在工廠測試時學習到的行為方式,包括速度、力度等,在用戶的普通房間裏可能會造成危險。(資料來自 Google)

來源:路透社Android頭條經濟學人

2017 年 7 月,端傳媒啟動了對深度內容付費的會員機制。在此之前刊發的深度原創報導,都會免費開放,歡迎轉發,也期待你付費支持我們

如果你喜歡,就分享給更多人吧