評論國際科技深度

「人工智能會讓人類滅絕」——圍繞這個問題的最新討論都說了什麼?

「降低人工智能導致人類滅絕的風險,應該與大流行及核戰爭等其他社會風險一樣作為全球優先事項。」

2017年5月6日,一名女子在觀看由人工智能生成的歷史檔案。土耳其藝術家Refik Anadol的Archive Dreaming裝置,整合近200萬份歷史檔案,將其變得可視化。攝:Chris McGrath/Getty Images

2017年5月6日,一名女子在觀看由人工智能生成的歷史檔案。土耳其藝術家Refik Anadol的Archive Dreaming裝置,整合近200萬份歷史檔案,將其變得可視化。攝:Chris McGrath/Getty Images

布犁

刊登於 2023-06-19

#人工智能#評論#科技

在ChatGPT-4的大模型發布後,連續好幾個月來,到處都是討論人工智能的聲音。5月30日,英國大小報紙的頭條,是一份由超過300位各界人士參與的「AI可能導致人類滅絕」的聯署聲明。簽署者也包括了大量AI科學家和前沿研發人士。

AI的締造者們開始擔心AI毀滅人類了?這份聲明很短,只有一句話,翻譯過來就是:「降低人工智能導致人類滅絕的風險,應該與大流行及核戰爭等其他社會風險一樣作為全球優先事項」。

這樣的討論大概都說了些什麼呢?

我們將面臨哪些AI風險?

牽頭起草這份聲明的,是一個位於美國的非盈利機構,叫做「AI安全中心」(Center for AI Safety)。他們的主要工作是研究、討論和倡導AI安全問題,促進相關監管和立法。

他們的主頁上列舉了AI將可能帶來的一些最嚴重的安全威脅。有些看起來似乎有些危言聳聽,但更多的則讓人緊張:

列於首位的風險,是AI的軍事化——這倒不是說會像科幻片裏那樣,出現一個超級AI大腦要滅絕人類。這樣的風險暫時不大。但頗為可能出現的情況,是各國都可能用AI參與武器研發和軍備升級,並將AI裝入一些武器系統,人工智能將被拿來服務於政治野心和戰爭。

另一件較為人知的風險是AI大模型將製造和傳播更多虛假信息。目前,ChatGPT的問答中就已經顯示,AI會在交談中產生不少和事實不符的內容,比如讓它解釋一位人物時,AI有機會虛構人物的一些生平細節。有一些最新的研究就指出,AI其實能做到「表裏不一」和主動「撒謊」。甚至在大數據模型給我們編造一個不存在的錯誤答案時,它可能自己對正確答案有一定的理解。

但這只是虛假信息的其中一面,進一步發展的大模型還可能被用來自動生成容易讓人們相信的政治謠言或政治宣傳,從而更深地影響社會和政治。

閱讀全文,歡迎加入會員

華文世界不可或缺的深度報導和多元聲音,了解更多

立即訂閱

已經訂閱?登入

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀