探索學院 深度 媒體觀察

傅景華:AI淘汰人類?末日論以外的另類思考

很多人談到大數據,只是強調它的「大」,好像只要數據量能足夠地大,透過機器就能跑出有意義的東西,甚至根本不需要問「為什麼」……


傅景華:我懷疑樂觀派的科技革命論太過一廂情願,亦同時對悲觀派傾向極端的想法有所保留。 攝:Ulrich Baumgarrten via Getty Images
傅景華:我懷疑樂觀派的科技革命論太過一廂情願,亦同時對悲觀派傾向極端的想法有所保留。 攝:Ulrich Baumgarrten via Getty Images

在過去數年,大數據、人工智能和機器學習等資訊科技,逐步走進社會成為公眾話語,由大型科技企業到初創公司,均爭相開發貼上上述標籤的新技術和產品;這幾門學問亦成為大學跨學科的研究顯學(至少敝校視之為策略研究重點),由系到院,從教授到大學行政高層,人人琅琅上口。當它們成為大眾話語,市場上消息不絕,議題自然經常成為媒體的焦點。大眾媒體的報導框架大致有兩大類:樂觀派通常會視新科技為解決社會問題的良方,用以推動變革,技術可提高社會效率及改善人類福址(科技革命框架);悲觀派則視之為人類的威脅,個人資料可被政府或企業濫用,人工智能將取代人類的職位,機械人將超越人類並控制甚至傷害人類云云(道德恐懼框架)。兩者皆各有受眾。

筆者屬懷疑派,我懷疑樂觀派的科技革命論太過一廂情願,亦同時對悲觀派傾向極端的想法有所保留。帶着一串疑問,我以一個社會科學學者的身份,參加剛過去的12月份在波士頓舉行的IEEE大數據國際會議,希望親身了解科技界對這幾門技術的最新發展,尤其關心有關科技與社會關係的討論。會議上見聞甚多,難以一一盡錄。筆者在本文主要介紹其中一個觀察。

「環中人」與「好」的培訓數據

但凡這類國際式學術會議,作為首天主題演講的講者們,多在業界有可壓場的江湖地位,講題亦多屬行內最新發展,並且可讓普遍與會者感興趣的題目。筆者發現,會議首天早上兩個主題講者都不約而同地提出,人類知識在人工智能和機器學習過程中的角色,即所謂「環中人」(human in the loop)的概念。這概念某程度上回應了社會上不少人認為機器與人類呈互相對立之勢的見解。

論及人工智能將超越或取代人類這命題,很多人都會引述牛津大學2013年的一項研究,該研究用數學模型配合一連串數據假設的推算,估計未來20年美國有近半工作職位陷於被電腦化取代的危機,其中運輸物流及辦公室後勤等重複性較高的工種(例如分別容易被自動車或智能軟件取代),具較大被淘汰的風險,而要求員工具創意及社交能力的工種,受到的威脅則較低。另一項在2017年發表的研究,研究員訪問了三百多名從事前沿人工智能研究的人員,要求受訪者估計人工智能對社會的影響。綜合訪問結果後,研究員推算出有一半機會機器會在未來45年及120年分別超越及取代人類所有工作(作者按:換言之,我們還有一半機會不會被取代!),而亞洲區研究員預計這情況會出現的時間,比西方同行預計的更早。類似的說法,Stephen HawkingElon Musk都曾分別公開講過,並成為人工智能「末日論」的重要彈藥。

先此聲明,筆者對這命題並無答案,預測未來(尤其是超過十年)絕非本人強項,而最尖端的人工智能科技也並非我的理解能力所及。不過,按理這次大數據會議的主題講者份屬科技界具地位人物,二人在報告中分別談及「環中人」的重要性,強調人類知識在機器學習的角色,而並非指出人類將被電腦取替,這就值得關注。尤其是,這種講法與上述社會中不少人所論及的末世氣氛有所差異。

例如,美國東北大學教授Carla E. Brodley是第一位主題講者,她的講題就是「環中人」在機器學習的應用(Human-in-the-loop Applied Machine Learning)。她談了很多不同領域,包括醫療科技和環境科技專家的合作項目之後,她的結語大意是這樣的:市面上有很多不同種類的計算法,但機器學習的成功之道是要有「好」的培訓數據(training data),與及邀請人類專家的參與。

簡而言之,很多人談到大數據,只是強調它的「大」,好像只要數據量能足夠地大,透過機器就能跑出有意義的東西,甚至根本不需要問「為什麼」,正是所謂的「理論之終結」(The End of Theory) ——好像Google根本不需要是語言專家,亦不需要懂某一種語言,它只需要擁有龐大的語言數據讓機器學習,機器便能跑出該語言的翻譯。然而,這種強調「大」卻不求人類認知理解的大數據分析,是否真的能處理在複雜的現實社會中出現的紛紜世事呢?

看幾個例子。Google Flu曾經有一段風光日子,利用首頁用戶搜尋的關鍵詞,能比美國疾病控制及預防中心(CDC)更早計算出疫情爆發,但該項目推出數年後被發現數據連番錯估疫情,網頁近年更已停止更新。另外,曾經在2008及2012年兩次選舉中,利用綜合計算不同機構的民調數據,成功預測美國選舉結果而一炮而紅的暢銷書《精準預測》作者Nate Silver,其主持的網站在2016年總統選舉錯估選情,選舉當日還是認為希拉莉(希拉蕊)勝出機會高達七成。

究竟問題出在那裏呢?很多人會反省,認為問題並不在於數據分析和計算法等方法上,誠如Carla E. Brodley教授所言,是在數據的質素本身。誠然,機器還是可以透過模型和計算法「判斷」數據質量的好壞,但若能配合人類的知識,尤其是綜合人類專家多方的判斷,可以令機器作出的結果更貼近「實情」及具備「人情」。人類的知識可以判斷機器預測出來的結果是否「合理」,可以立即調教「不合理」的數學模型和計算法,從而糾正機器的「錯誤」結果。

其實,社會科學學者對這個邏輯並不陌生,與我們方法學入門基本功中有關外部效度(external validity)的概念類同。而以電腦科學而言,人類可協助製造出可信任的數據或判斷其質素,再用以讓機器學習,跑出模型,機器便可以一種半監督學習(semi-supervised learning)的方式,找出人類難以辨認並隱藏在數據中的模式和關連,讓人類的認知決定參與其中,而並非被機器完全取代或淘汰。

人類是否接受完全取決於機器的結果?

另一個支持「環中人」的因素,是人類是否接受完全取決於機器的結果,尤其是涉及生命或人生重要的決定。試想,一個正面對接受或不接受某醫學治療的病人,在生命關口前作決定,會選擇機器跑出、按模型計出來但難以理解的治療選項,還是相信醫生作出的臨床診斷?在設計自動車在失控時的自動緊急反應模型時,你是否道德上接受讓機器按「保障客戶利益」的原則,保護有能力購買自動車的車主,而轉軚盤撞向行人路上的男女老幼來減速嗎?

當電腦化進一步普及至各社會領域的時侯,上述的情況並非天方夜譚。人類按社會認知和道德價值作出的決定,若完全被未來的大數據和人工智能世代排拒和取代的話,又是否我們希望見到的發展呢?

目前,公眾見到的大多數,屬我們稱之為弱人工智能(weak artificial intelligence,或可簡稱弱智)應用,集中在單一工作和特定環境下進行,例如捉圍棋或辨認圖象等。現在的技術要做到好像人類智能一樣可以處理多種不同類型的工作,懂得「舉一反三」和「一理通百理明」的通用人工智能(artificial general intelligence),還有一段距離。數十年後會發生什麼事情,我無能力預計,但至少目下我們還有很多有關人工智能引發的社會問題,更值得我們關注,其中一個就是人工智能偏見(AI bias)的問題。礙於篇幅,下期再談。

(傅景華,香港大學新聞及傳媒研究中心副教授)

觸摸世界的政經脈搏
你觀察時代的可靠伙伴

已是端會員?請 登入賬號

端傳媒
深度時政報導

華爾街日報
實時財訊

全球端會員
智識社群

每週精選
專題推送

了解更多
傅景華 評論 探索學院 媒體觀察