評論|「人工智能會讓人類滅絕」——圍繞這個問題的最新討論都說了什麼?

「降低人工智能導致人類滅絕的風險,應該與大流行及核戰爭等其他社會風險一樣作為全球優先事項。」

在ChatGPT-4的大模型發布後,連續好幾個月來,到處都是討論人工智能的聲音。5月30日,英國大小報紙的頭條,是一份由超過300位各界人士參與的「AI可能導致人類滅絕」的聯署聲明。簽署者也包括了大量AI科學家和前沿研發人士。

AI的締造者們開始擔心AI毀滅人類了?這份聲明很短,只有一句話,翻譯過來就是:「降低人工智能導致人類滅絕的風險,應該與大流行及核戰爭等其他社會風險一樣作為全球優先事項」。

這樣的討論大概都說了些什麼呢?

我們將面臨哪些AI風險?

牽頭起草這份聲明的,是一個位於美國的非盈利機構,叫做「AI安全中心」(Center for AI Safety)。他們的主要工作是研究、討論和倡導AI安全問題,促進相關監管和立法。

他們的主頁上列舉了AI將可能帶來的一些最嚴重的安全威脅。有些看起來似乎有些危言聳聽,但更多的則讓人緊張:

列於首位的風險,是AI的軍事化——這倒不是說會像科幻片裏那樣,出現一個超級AI大腦要滅絕人類。這樣的風險暫時不大。但頗為可能出現的情況,是各國都可能用AI參與武器研發和軍備升級,並將AI裝入一些武器系統,人工智能將被拿來服務於政治野心和戰爭。

另一件較為人知的風險是AI大模型將製造和傳播更多虛假信息。目前,ChatGPT的問答中就已經顯示,AI會在交談中產生不少和事實不符的內容,比如讓它解釋一位人物時,AI有機會虛構人物的一些生平細節。有一些最新的研究就指出,AI其實能做到「表裏不一」和主動「撒謊」。甚至在大數據模型給我們編造一個不存在的錯誤答案時,它可能自己對正確答案有一定的理解。

但這只是虛假信息的其中一面,進一步發展的大模型還可能被用來自動生成容易讓人們相信的政治謠言或政治宣傳,從而更深地影響社會和政治。

2023年3月22日,在CloudFest展會上,背景螢幕上顯示「此標誌不是由ChatGPT編寫的」。攝:Philipp von Ditfurth/picture alliance via Getty Images
2023年3月22日,在CloudFest展會上,背景螢幕上顯示「此標誌不是由ChatGPT編寫的」。攝:Philipp von Ditfurth/picture alliance via Getty Images

其他主要的AI風險,還包括對AI的依賴將導致人類的個體思考和行為能力大幅衰落;以及誰可以享受或者購買到AI資源,誰無法觸及AI資源,這造成的結果會是圍繞着AI生產力,人類社會的進一步貧富分化。總而言之,在通用的大模型AI出現後,相關的風險也可以說是滲透到了人類社會的各個方面。

像「AI安全中心」這樣的機構聚焦於推動人們認識AI風險,並尋求管控風險的方式——尤其是讓立法者和執法者留意到這一點。可以預見,這樣的倡導機構在未來會變得更多。

立法者如何討論通用AI大模型?

AI大模型不同於普通AI,規管起來並不容易。歐盟先前計劃中對AI的規劃方式,是將不同種類的AI歸為不同的風險等級。但這樣的模式並不能適應通用大模型帶來的挑戰。

在這方面,美國參議院可以說是走在了各國立法機構的最前。他們在五月份舉行的一場超過三小時的聽證會值得一聽。這場聽證會的全文也可以在科技政策媒體TechPolicyPress上找到。

聽證會上,三位接受參議員質詢的業界人士分別是開發ChatGPT的OpenAI的CEO阿特曼(Samuel Altman)、IBM的首席隱私和信任官蒙哥馬利(Christina Montgomery )以及紐約大學的認知科學教授馬庫斯(Gary Marcus)。

相比之前對TikTok的聽證會上很多中老年議員聚焦於程式「帶壞年輕人」,這次針對AI的聽證會中,列席的參議員們更有備而來,提問深度也更亮眼。開場的參議員布盧門撒(Richard Blumenthal)甚至開了個與時俱進的玩笑,他用ChatGPT生成的演講稿和AI語言合成讀了一段「他自己」的開場白,「你們能聽出來這不是我嗎?」

2023年5月16日,「ChatGPT之父」、公司執行長阿爾特曼(Sam Altman),出席參議院隱私、技術和法律司法小組委員會聽證會。攝:Win McNamee/Getty Images
2023年5月16日,「ChatGPT之父」、公司執行長阿爾特曼(Sam Altman),出席參議院隱私、技術和法律司法小組委員會聽證會。攝:Win McNamee/Getty Images

在這場聽證會上,開發人工智能的頭部企業發表憂心忡忡的言論,也許更多是為了在未來遇到事情的時候撇清責任——你看我都提前跟大家預警了!不過,聽證會上包括阿特曼在內的人也確實提到了AI可能會在未來導致的巨大問題——比如ChatGPT的接口有機會幫助犯罪分子模擬人類去實施誘騙和欺瞞行為;又比如大模型的政治操控能力可以預測選民傾向和引領輿論;又比如AI顯然會對就業市場有巨大影響;再比如通用AI將可能帶來全球範圍內語言之間的不平等——一個例子是,冰島語這樣的語言是不是會變得更邊緣?阿特曼等人也直白承認這些問題都會存在——看起來他並不是一個技術樂觀主義者。

概而言之,馬庫斯教授在聽證會上的一個類比可能是恰當的,他說我們已經「創造了一頭在瓷器店裏的公牛」。尤其是,從AlphaGo開始,就有很多人提到過AI的思考過程其實是一個「黑箱」,我們很難確定AI到底是怎麼具體「思考」的,因此我們對於AI到底有多安全,其實無法說真的有把握。

面對這樣的風險,目前我們有什麼可以採取的措施呢?

我們在加速衝向風險嗎?

在美國參議院的聽證會上,人們討論到是否要讓AI發展「減速」下來。在輿論場上,馬斯克等人先前也通過聯名信提出暫時停止訓練通用AI。

最近,獲得過2018年圖靈獎的加拿大科學家本希奧(Yoshua Bengio)有另一個建議,那就是在暫停超過GPT-4等級的AI的開發之外,還要禁止開發所謂的「智能主體」(intelligent agent)。所謂智能主體,是AI大模型接入了一個可以以語言之外的多種方式(比如行走、行動、製造等等)和世界互動的實體上。本希奧和不少人都認為智能主體一旦產生,其對現實的影響將比單純的語言大模型更加巨大,且變得極為不可控。

但是,從聽證會到公開信到調查研究機構,人們也意識到要「減緩」或者真正管控AI風險是非常困難的。

首先的困難就是,當下的全球競爭——中美之間,又或者商業競爭——各大公司之間,都在鼓勵更快、更大規模的通用AI開發。OpenAI的CEO阿特曼也指出,除非全球合作,否則很難實現有效的對人工智能領域的監管。這就回到了那封聲明的問題——假如AI真的和原子能一樣,是一件既可以造福人類又可以毀滅人類的技術,那麼全球是否要有類似《不擴散核武器條約》一樣的,針對人工智能的條約和國際組織呢?

當前,各國政府顯然沒有覺得問題有這麼嚴重。

一隻眼球裡映出了 OpenAI 標誌。攝:Jaap Arriens/NurPhoto via Getty Images
一隻眼球裡映出了 OpenAI 標誌。攝:Jaap Arriens/NurPhoto via Getty Images

也有不少AI樂觀論者,比如Meta的首席AI科學家楊立昆(Yann LeCun)就不同意「AI可能導致人類滅絕」的看法。他的論據之一是AI的發展還沒有到真的構成威脅的程度,當前的通用AI的水平也相當初級。

不過,通用人工智能的發展正在逐漸加速。2015年的時候,還有業界專家指出,擔憂AI對人類的威脅就像「擔心火星上人口過剩」。但八年之後,這個威脅確實變得更明顯了。我們可以猜測,真正構成嚴重威脅的通用AI還需要幾年時間才能產生?馬庫斯在聽證會上暗示可能要20年——也並不是一個很遠的時間點。我也拿這個問題詢問了在人工智能領域工作的朋友,對方的回覆是:如果要期待一個具有創造力的,在一些專業工作領域上能夠開始超越人類的通用人工智能模型,也許在未來兩三年就會有些眉目了。當然,這也只是一種估計。

相比通用AI的發展加速度,儘管各國現在都說要開始監管,但是所做的還是遠遠不夠。美國參議院的聽證會上討論了一些可能手法,比如類似食品標簽那樣為AI增加「計分卡」——這個模式大概就是當我們在用AI產品時,會跳出來一個提醒:「ChatGPT,有時候會撒謊,ta說的話不能作為事實使用」。其他的再討論之中的監管措施也包括了要成立一個專門監管AI的機構、在AI產品上標註大模型接受訓練的來源等等。

監管速度很可能跟不上AI發展的速度,尤其是像美國這樣的,非常依賴「打官司」來釐清法律責任的系統,速度就更慢了。況且,還有很多基礎問題沒有解決:比如釐清AI責任時,是否要修改美國《通訊規範法案》(CDA)的230條?(網絡服務供應商無需為第三方使用者的言行負法律責任。)

相比之下,歐盟的人工智能監管法案已經進入了落實階段。6月14日,歐洲議會通過了新修改的《歐盟人工智能法案》(EU AI Act),這意味着歐盟接下來將在機構和機制設計層面去執行超過300頁內容的人工智能監管辦法。其中包括了對人工智能訓練資料、訓練範疇、算法公開等方面的要求。據相關報道,法案也針對新出現的大模型進行了修訂。這其中值得注意的一點是,加強人工智能監管,意味着這一領域領先的美國公司和歐洲監管當局之間的衝突可能在未來幾年加深——歐洲的法案在何種程度上能夠「管住」人工智能的負面屬性,對矽谷又能否帶來實質性的影響?

讀者評論 5

會員專屬評論功能升級中,稍後上線。加入會員可閱讀全站內容,享受更多會員福利。
  1. 較之猶疑技術「是否會用於爭端乃至極端行徑」,重讀《民主軍火庫》早作打算為好

  2. 得先限制AI的發展,不讓某些人掌控是很難得了,擔心😦

  3. 個人認為這種聲明只是透過玩弄大眾對新事物的恐懼來促使各國用法規來限制這方面的商業發展,從而達到阻止新競爭者參與市場以保護自身既得利益的目的

  4. 個人認為這種聲明只是透過玩弄大眾對新事物的恐懼來促使各國用法規來限制這方面的商業發展,從而達到阻止新競爭者參與市場以保護自身既得利益的目的

  5. 第一个图片的标注写成了chatGBT