端 × 華爾街日報廣場

科技巨頭對AI猛砸錢,理想很豐滿但現實很骨感

多年來,Google、Meta、OpenAI等科技企業一直大談人工智能的潛力,研究人員說,現在是時候調整預期了。

加拿大多倫多一個科技展裏一個人形機械人。

加拿大多倫多一個科技展裏一個人形機械人。攝:Yu Ruidong/China News Service/Visual China Group via Getty Images

華爾街日報記者 Karen Hao / Miles Kruppa

刊登於 2022-07-10

#WSJ#端傳媒尊享會員#AI#人工智能#端 x 華爾街日報

本文原刊於《華爾街日報》,端傳媒獲授權轉載。目前,《華爾街日報》中文版全部內容僅向付費會員開放,我們強烈推薦您購買/升級成為「端傳媒尊享會員」,以低於原價 70% 的價格,暢讀端傳媒和《華爾街日報》全部內容。

多年來,企業一直大談人工智能的潛力,研究人員說,現在是時候調整預期了。

隨著最近這項技術的飛躍,多家公司已經開發出更多的系統,可以產生類似人類的對話、詩歌和圖像。然而,人工智能倫理學家和研究人員警告說,一些企業正在誇大這些能力,他們說,這種炒作正在催生廣泛的誤解,並扭曲了決策者對這種技術的能力和缺陷的看法。

總部位於西雅圖的非營利性研究機構艾倫人工智能研究所(Allen Institute for Artificial Intelligence)的首席執行官Oren Etzioni稱:「我們失去了平衡。」

他和其他研究人員稱,這種不平衡有助於解釋本月早些時候Alphabet Inc. (GOOG) 旗下Google一位工程師的觀點為何讓許多人動搖了。當時Google的一名工程師基於自己的宗教信仰指出,該公司的一個人工智能系統應該被認為是有知覺的。

這位工程師說,這個聊天機器人實際上已經成為一個人,有權決定是否同意對它進行試驗。Google暫停了他的工作,且不認同他的說法,稱公司的倫理學家和技術專家已經研究了這種可能性,不予認可。

研究人員稱,認為人工智能變得擁有意識,或者可能擁有意識的想法,在整體科學界仍然處於邊緣地位。

從現實層面看,人工智能涵蓋的一系列技術在很大程度上仍對一些不起眼的後台後勤工作有幫助,比如處理來自用戶的數據,以便更精準地向他們投放廣告及內容並推薦產品。

過去十年裡,Google、Facebook母公司Meta Platforms Inc. (META)和亞馬遜公司(Amazon.com Inc., AMZN)等公司已投入巨資發展這些能力,為的是助力公司增長並提振利潤。

以Google為例,該公司運用人工智能來完善對複雜搜尋提示的解析,協助其給出相關的廣告和網絡搜尋結果。

一些初創企業也萌生了更宏大的雄心。其中一家名為OpenAI的公司從特斯拉(Tesla Inc., TSLA)首席執行官馬斯克(Elon Musk)和微軟(Microsoft Corp., MSFT)等投資方手中籌得了數十億美元資金,要實現所謂的通用人工智能(AGI),該系統將具備與人類同等的智慧甚至全面超越人類。一些研究人員認為,即便AGI並非高不可攀,要實現它也需要幾十年時間。

這些公司你追我趕、互不相讓的競爭氛圍推動了AI技術的快速發展,催生出越來越多廣受好評的演示,激發了公眾的想像力及對AI技術的關注熱情。

最近幾周,OpenAI的DALL-E系統在社交媒體上吸引網民創作出許多梗圖。此系統可根據用戶輸入的文本生成藝術圖像,比如「土星軌道上的麥當勞(McDonald's)」或「鐵人三項賽中身著運動裝備的熊」。

Google也緊隨其後,亮出了自家基於文本輸入的藝術創作系統。

雖然這些創意可能令人驚嘆,但越來越多的專家警告說,公司沒有適當地控制炒作。

Margaret Mitchell曾是GoogleAI倫理團隊的聯合負責人,她在寫了一篇批評Google系統的論文後被公司解僱。她說,這家搜尋巨頭向股東宣傳的賣點之一是,它在人工智能領域是全球做得最好的。

Mitchell目前在一家名為Hugging Face的AI初創公司工作,她和GoogleAI倫理團隊的另一位聯合負責人Timnit Gebru是最早提醒人們注意該技術危險性的人之一。Gebru也被Google解僱。

在供職Google期間寫的最後一篇論文中,她們稱這些技術有時會造成傷害,AI的類人能力意味著有和人類一樣的失敗可能。她們列舉的例子包括,Facebook的AI系統將阿拉伯語的「早上好」誤譯為英語的「傷害他們」和希伯來語的「攻擊他們」,導致以色列警方逮捕了發布該問候語的巴勒斯坦男子,後來警方意識到了自己的失誤。

去年出版的《Facebook文件》系列報導援引的內部文件也顯示,Facebook的系統未能持續一貫地識別第一人稱射擊影片和種族主義言論,只刪除了違反該公司規定的內容中的一小部分。《華爾街日報》(The Wall Street Journal) 看到了這些內部文件。

Facebook表示,其人工智能的改進大大減少了仇恨言論和其他違反其規定的內容。

Google表示,解僱Mitchell的原因是她與公司以外的人分享內部文件。Google的人工智能主管告訴員工稱,Gebru的工作不夠嚴謹。

上述解聘事件在科技行業造成振動,引發Google內外數以千計的人譴責他們在一份請願書中所稱的「前所未有的研究審查制」。Google首席執行官皮查伊(Sundar Pichai)表示,他將努力在這些問題上恢復人們的信任,並承諾把研究人工智能倫理的人數增加一倍。

感覺和現實之間存在差距並不是什麼新鮮事。Etzioni和其他人提到了有關Watson的營銷,Watson是International Business Machines Corp. (IBM)開發的人工智能業務,在智力競賽節目《危險邊緣》(Jeopardy)中打敗人類後變得廣為人知。在進行了10年和數以十億美元計的投資後,IBM去年表示正探索出售Watson Health的可能性,該部門的主營產品本應用於幫助醫生診斷和治療癌症。

人工智能現在無處不在,而且涉及更多公司,因此變得更舉足輕重。這些公司開發的軟體包括電子郵件、搜尋引擎、動態消息、語音助手,已滲透至大眾數字生活的各個角落。

在上述工程師發表最近的說法之後,Google反駁了其聊天機器人具有感知力的說法。

Google的聊天機器人和其他對話工具「可以大聊任何虛幻的話題」,該公司發言人Brian Gabriel表示。「如果你問成為一隻冰激凌恐龍是什麼感覺,它們可以生成與融化、咆哮等有關的文本。」他說,這並不等同於有意識。

現已被停職的那位工程師Blake Lemoine在接受採訪時稱,他曾彙集了數以百頁計來自聊天機器人LaMDA相關受控實驗的對話以支持自己的研究,他確切介紹了Google程式的內部運作情況。

「這並不是誇大該系統的本質,」Lemoine說。「我正盡可能小心、精確地傳遞訊息,說清哪裡有不確定性,哪裡沒有。」

Lemoine自稱是一個神秘主義者,融合了基督教以及冥想等其他精神實踐的元素。他已表示,當他說LaMDA有意識的時候,是在以宗教身份說話。

布朗大學(Brown University)研究人工智能政策的計算機科學博士生Elizabeth Kumar稱,認知差距已經在政策文件中悄然顯現。最近的地方、聯邦和國際規定以及監管提案,紛紛尋求應對人工智能系統可能通過歧視、操縱或其他方式造成傷害的問題,這些都是基於系統具有高度能力的假設。她說,一種更有可能發生的情況在很大程度上被忽略了,即此類人工智能系統因失靈而造成傷害。

Etzioni也是拜登(Joe Biden)政府的國家人工智能研究資源工作組(National Artificial Intelligence Research Resource Task Force)的成員,他表示,政策制定者往往難以把握這些問題。他說:「我可以告訴你,從我與他們中的一些人的交流來看,他們的出發點是好的,也問出了一些好問題,但他們並非對情況了如指掌。」

英文原文:Tech Giants Pour Billions Into AI, but Hype Doesn’t Always Match Reality]2

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀