在ChatGPT-4的大模型發布後,連續好幾個月來,到處都是討論人工智能的聲音。5月30日,英國大小報紙的頭條,是一份由超過300位各界人士參與的「AI可能導致人類滅絕」的聯署聲明。簽署者也包括了大量AI科學家和前沿研發人士。
AI的締造者們開始擔心AI毀滅人類了?這份聲明很短,只有一句話,翻譯過來就是:「降低人工智能導致人類滅絕的風險,應該與大流行及核戰爭等其他社會風險一樣作為全球優先事項」。
這樣的討論大概都說了些什麼呢?
我們將面臨哪些AI風險?
牽頭起草這份聲明的,是一個位於美國的非盈利機構,叫做「AI安全中心」(Center for AI Safety)。他們的主要工作是研究、討論和倡導AI安全問題,促進相關監管和立法。
他們的主頁上列舉了AI將可能帶來的一些最嚴重的安全威脅。有些看起來似乎有些危言聳聽,但更多的則讓人緊張:
列於首位的風險,是AI的軍事化——這倒不是說會像科幻片裏那樣,出現一個超級AI大腦要滅絕人類。這樣的風險暫時不大。但頗為可能出現的情況,是各國都可能用AI參與武器研發和軍備升級,並將AI裝入一些武器系統,人工智能將被拿來服務於政治野心和戰爭。
另一件較為人知的風險是AI大模型將製造和傳播更多虛假信息。目前,ChatGPT的問答中就已經顯示,AI會在交談中產生不少和事實不符的內容,比如讓它解釋一位人物時,AI有機會虛構人物的一些生平細節。有一些最新的研究就指出,AI其實能做到「表裏不一」和主動「撒謊」。甚至在大數據模型給我們編造一個不存在的錯誤答案時,它可能自己對正確答案有一定的理解。
但這只是虛假信息的其中一面,進一步發展的大模型還可能被用來自動生成容易讓人們相信的政治謠言或政治宣傳,從而更深地影響社會和政治。