端聞

如何讓AI安全可靠?Google列出了需要注意的五大問題


Google 列出防止 AI 「殺人」的五個關鍵點。
Google 列出保障AI機器人安全可靠的五個關鍵點。攝:Chip Somodevilla/Getty

全球科技巨頭 Google 不僅在人工智能(Artificial Intelligence,AI)領域發展迅猛,他们同時也專注於這項技術的安全性問題。Google 旗下的研究團隊 Google Brain 近日聯合史丹福大學(Stanford University)、加州大學伯克萊分校(UC Berkeley)以及非盈利研究公司 OpenAI 的科學家發表了一篇題為 Concrete Problems in AI Safety 的論文,列舉出為保證 AI 機械人安全及可靠,在研發階段需要考慮的五大問題。

這篇文章以清掃機械人(Cleaning Robot)為例,將這五個問題解釋如下:

  • 如何避免 AI 在完成目標的時候,不破壞其所在的環境?負面例子:清掃機械人可能會打翻自己前進路上的花瓶,這樣它就掃得更快了。
  • 如何避免機制被破解,AI 在行為上出現博弈?負面例子:清掃機械人可能會將地上的贓物用其它東西遮擋起來,讓自己看不見,這樣它就不用清掃了。
  • 如何在訓練過程中,讓 AI 能有效理解指令,避免對用戶造成干擾?負面例子:清掃機械人若不能有效理解清掃任務,在遇到每一件物品的時候都要求用戶進行判斷,用戶會受到嚴重干擾。
  • 如何保證 AI 在自主學習時不做出超過安全範圍的「探索」,產生負面影響?負面例子:清掃機械人在試驗拖地策略時,可能會將濕拖把放到電源插座上。
  • 如何讓 AI 能夠適應工廠測試環境與用戶使用環境的不同?負面例子:清掃機器人在工廠測試時學習到的行為方式,包括速度、力度等,在用戶的普通房間裏可能會造成危險。

我們相信 AI 技術對人類應該是極為有用及有益的。但對任何新技術而言,負責任的做法是,考慮其潛在的挑戰以及如何盡可能地處理相應的風險。

論文作者之一、Google 科學家 Chris Olah

這篇論文的作者之一、Google 科學家 Chris Olah 隨後發表文章指,儘管 AI 在安全隱患方面的問題已經引起足夠多的公眾關注,但此前的討論大都是假設性及推測性的。他認為機器學習(Machine Learning)研究應在這方面引起更多注意,並開始研發實用方法使得 AI 系統更加安全可靠。

今年3月,南韓棋手李世石在舉世矚目的「人機圍棋對弈」中負於 Google 旗下 Deepmind 公司開發的 AI 程式 AlphaGo 後,不少人對 AI 的發展程度感到震驚。本月初,Deepmind 與牛津大學的研究人員聯合發表論文,提出一種算法框架,希望 AI 機械人在傷害人類或環境時,可以被關機——他們將其稱為「紅色按鈕」。

50 %
英國央行去年表示,未來10年到20年間,英國和美國將有接近50%的勞動力被機械人取代。

聲音

我們很有必要給人工智能加上一個「紅色按鈕」,以阻止其傷害其他人類和環境……但人工智能也可能學會如何防止自己被人類關機,比如讓「紅色按鈕」失效等。我們的論文提供了一種如何讓人工智能無法學會這一招的可行方法。

Deepmind 和牛津大學的合作論文

計算機的視覺如果比人要更好,為什麼還要人去開車?應該讓機器開車。現在是醫生看 X 光,未來如果讓機器看是否會做出更準確的診斷?在開源之後,如果全世界的聰明人都將給 Google 很好的回饋,Google 會有更好的發現,讓產品和服務更完美。

Google 母公司 Alphabet 執行董事長 Eric Schmidt

機器學習

機器學習是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、計算複雜性理論等多門學科。機器學習理論主要是設計和分析一些讓計算機可以自動「學習」的算法。機器學習算法是一類從數據中自動分析獲得規律,並利用規律對未知數據進行預測的算法。因為學習算法中涉及了大量的統計學理論,機器學習與推斷統計學聯繫尤為密切,也被稱為統計學習理論。算法設計方面,機器學習理論關注可以實現的,行之有效的學習算法。很多推論問題屬於無程序可循難度,所以部分的機器學習研究是開發容易處理的近似算法。機器學習已廣泛應用於數據挖掘、計算機視覺、自然語言處理、生物特徵識別、搜尋引擎、醫學診斷、檢測信用卡欺詐、證券市場分析、DNA序列測序、語音和手寫識別、戰略遊戲和機械人等領域。(資料來自維基百科)

來源:MIT技術評論TheVergeGoogle Blog

2017 年 7 月,端傳媒啟動了對深度內容付費的會員機制。在此之前刊發的深度原創報導,都會免費開放,歡迎轉發,也期待你付費支持我們

如果你喜歡,就分享給更多人吧