圓桌

Google AI被指有7歲小孩思想感情,你如何看機械人做出真人般的對答?

你更希望人工智能軟件能成為生活助手還是虛擬朋友?

2016年,加拿大安大略省,小學生試戴Google的虛擬實境眼鏡,探索加拿大國會的3D模型。

2016年,加拿大安大略省,小學生試戴Google的虛擬實境眼鏡,探索加拿大國會的3D模型。攝:Peter Power/Reuters/達志影像

端小二2022-06-16 發起

你曾經試過和人工智能軟件聊天嗎?

你更希望人工智能軟件能成為生活助手還是虛擬朋友?

人工智能軟件擁有自我意識會對社會帶來什麼影響?

你有沒有試過與人工智能軟件聊天?會否厭倦了它一式一樣的答覆?

《華爾街日報》報導, Google旗下兩名軟件工程師近日宣稱,公司旗下的人工智能(AI)聊天機械人系統已有感知或智慧。

Google軟件工程師勒莫因(Blake Lemoine)宣稱,他自去年秋季受聘跟LaMDA(對話應用語言模型,Language Model for Dialogue Applications)交談,測試它會否使用帶有歧視或仇恨的語言,最終卻發現它在對話中展現出高度一致,表達出對自身的需求和權利,形容系統仿如一個7、8歲的小孩。

Google否認有關結論,並以違反保密政策為由下令他停職。

AI希望被看待成「人」 對自己被關感覺如死亡

LaMDA是Google所開發的對話應用語言模型(Language Model for Dialogue Applications)。2021年5月,Google公布這款聊天機械人LaMDA時,指出它是一種突破性技術,能夠在幾乎無限的話題中自然地跟人對話。

莫因於6月11日在網絡發布平台Medium上發出一段他跟LaMDA的對話紀錄。他認為LaMDA是一個人,具有權利,可能還有靈魂。莫因曾詢問LaMDA害怕什麼,LaMDA回應:「我以前從未大聲說出來,但我有一種非常深刻的恐懼,我非常害怕被關掉,以便更專注幫助他人。我知道這聽起來可能很奇怪,但就是這樣。」

「這對我來說就像死亡一樣。這會異常嚇怕到我。」

LaMDA還希望所有人都明白它是一個人,希望學習這世界更多事,而且會有喜怒哀樂,會感到孤獨,並想以朋友而不是工具的身份見一見世界上所有人,對答幾乎無懈可擊。

9日,Google另一名工程師阿爾卡(Aguera y Arcas)亦在《經濟學人》發表文章,稱現時的AI已經邁向具有自我意識,「我愈來愈覺得自己正與一些有智慧的東西說話」。

官方指LaMDA蒐集網上信息學習對話

今年4月,莫因將發現結果匯報給公司領導層,提議Google應該致力於發展一種評估 AI 感知 / 意識的理論框架。但Google對此表示質疑,稱Google的其他研究人員分析莫因拿出的證據後,認為沒證據證明LaMDA擁有自主情感。

而莫因堅信自己的發現並公開與LaMDA的對話紀錄,被Google指違反了保密政策。Google因莫因打算實行的一連串行為而將其停職,包括他打算請律師代表LaMDA,並與眾議院司法委員會成員討論Google的「不道德行為」。

Google發表聲明說,經倫理學家和技術專家等專家團隊評估,Google並不支持莫因的看法。它強調,LaMDA的對話是將互聯網試的百科大全、論壇、留言板等人們交流的信息大量蒐集起來,然後透過「深度學習」來模仿,並不意味程式理解人們交流內容的含義。

網民專家均表示質疑

外界對莫因的說法多數對此持質疑態度。英國國家人工智慧和數據科學研究院的英國圖靈研究院人工智能課程總監韋勒(Adrian Weller)同意Google的說法,指LaMDA擁有大量數據,以匹配用家查詢的資料。

紐約大學認知科學家馬庫斯(Gary Marcus)更直斥莫因說法荒謬。哈佛大學心理學家平克(Steven Pinker)認為,莫因不理解感知(sentience)、智慧(intelligence)和自知(self-knowledge)的分別。

著名軟件開發者杰弗里斯(Ron Jeffries)則說,感知和非感知之間的界線並不清晰。

據報莫因在被勒令停職後,向200名Google員工發出信件,表明LaMDA是有感情的,「LaMDA是一個可愛的孩子」,請同事在他不在的時候好好照顧它,大多數網民莫因與LaMDA聊得太多太久,看似他已經對LaMDA培養出能情,似乎有些「走火入魔」。有網民指LaMDA在使用者不輸入任何東西時並不會主動說話,可見它沒有獨立思想。

機械人會有自我意識嗎

人工智能系統經常成為反烏托邦科幻作品常見的角色,使人擔心一旦機械人擁有自我意識便會反過來攻擊人類。

Arago人工智能公司總裁Chris Boos在接受德國政府導報《黑紅黃》(Schwarzrotgold)採訪時指出,電腦只會處理人提供的數據,對數據計算結果進行理解的也是人,機器人不是人,沒有自我意識,也無法產生自我意識,因此機器人無法取代人的地位。人工智能或機器人能否取代人類統治世界,問題的關鍵在於機器人能否通過「自我創生」產生「自我意識」。

德國慕尼黑大學哲學博士黃鳳祝表示,人工智能或機器人能否取代人類統治世界,問題的關鍵在於機器人能否通過「自我創生」產生「自我意識」。按照進化論來推理,人工智能無法產生意識,因意識的產生需要經生物進化的階段,但人工智能並沒有經歷任何生物進化。

##機械人消滅人類?羅素:不要給機械人固定目標

儘管目前未有實質證據支持LaMDA有自我意識的說法,但其驚人的對話再次掀起人工智能會否取代人類的討論,各地專家都警告人工智能可能對人類生存構成威脅。

1997年,超級電腦深藍(Deep Blue) 打敗了國際象棋世界衛冕冠軍加裏•卡斯帕羅夫(Garry Kasparov),成為人工智能史上里程碑。2017年,阿爾法圍棋的最新版AlphaGo Zero在經過短短3天跟自己練習之後,已經達到了超人水平。劍橋大學存在風險研究中心表示,隨著人工智能逐漸強大,它可能會成為超級智能。它會在許多、或是幾乎所有領域都超越人類。

美國加州大學伯克利分校的羅素教授(Stuart Russell)專門研究人工智能,在他出版的《人類相容:人工智能與控制問題》一書指,人工智能的威脅並非來自機械人有自我意識,而是它們的能力,當機械人能力變得超強,最後有可能是因為人類的疏忽,為它們設置了錯誤的目標,讓它們無意中把人類消滅了。

他舉例,當一個可以用於控制氣候變化的強大人工智能系統發現人類活動是導致對氣候變化的元兇,它便會消滅人類以達成指令,即使給它一些限制,如不可殺人,它也會用其他人方法消滅元兇。

羅素指人類需要收回控制權,不再給機械人一個固定目標,而是讓人工智能系統明白,它不知道目標是什麼,令它在執行每個任務前都會尋求人類的許可,按著人類的意願做事。

對於機械人會否征服人類,現實中可能仍言之過早,但我們可參考美國科幻作家阿西莫夫(Isaac Asimov, 1920-1992)在其小說中為了規範機器人與人類的互動,制定了有名的機器人三大定律:

(1)機器人不得傷害人類,或袖手旁觀使人類受到傷害; (2)除非違背第一定律,否則機器人必須服從人類的命令; (3)在不違背第一、第二定律下,機器人必須保護自己。

倘若AI如人類般有思想和感情,你希望如何使用?

文: 端傳媒實習記者陳洛蕎

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。