評論|傅景華:AI淘汰人類?末日論以外的另類思考

很多人談到大數據,只是強調它的「大」,好像只要數據量能足夠地大,透過機器就能跑出有意義的東西,甚至根本不需要問「為什麼」……
傅景華:我懷疑樂觀派的科技革命論太過一廂情願,亦同時對悲觀派傾向極端的想法有所保留。

在過去數年,大數據、人工智能和機器學習等資訊科技,逐步走進社會成為公眾話語,由大型科技企業到初創公司,均爭相開發貼上上述標籤的新技術和產品;這幾門學問亦成為大學跨學科的研究顯學(至少敝校視之為策略研究重點),由系到院,從教授到大學行政高層,人人琅琅上口。當它們成為大眾話語,市場上消息不絕,議題自然經常成為媒體的焦點。大眾媒體的報導框架大致有兩大類:樂觀派通常會視新科技為解決社會問題的良方,用以推動變革,技術可提高社會效率及改善人類福址(科技革命框架);悲觀派則視之為人類的威脅,個人資料可被政府或企業濫用,人工智能將取代人類的職位,機械人將超越人類並控制甚至傷害人類云云(道德恐懼框架)。兩者皆各有受眾。

筆者屬懷疑派,我懷疑樂觀派的科技革命論太過一廂情願,亦同時對悲觀派傾向極端的想法有所保留。帶着一串疑問,我以一個社會科學學者的身份,參加剛過去的12月份在波士頓舉行的IEEE大數據國際會議,希望親身了解科技界對這幾門技術的最新發展,尤其關心有關科技與社會關係的討論。會議上見聞甚多,難以一一盡錄。筆者在本文主要介紹其中一個觀察。

「環中人」與「好」的培訓數據

但凡這類國際式學術會議,作為首天主題演講的講者們,多在業界有可壓場的江湖地位,講題亦多屬行內最新發展,並且可讓普遍與會者感興趣的題目。筆者發現,會議首天早上兩個主題講者都不約而同地提出,人類知識在人工智能和機器學習過程中的角色,即所謂「環中人」(human in the loop)的概念。這概念某程度上回應了社會上不少人認為機器與人類呈互相對立之勢的見解。

論及人工智能將超越或取代人類這命題,很多人都會引述牛津大學2013年的一項研究,該研究用數學模型配合一連串數據假設的推算,估計未來20年美國有近半工作職位陷於被電腦化取代的危機,其中運輸物流及辦公室後勤等重複性較高的工種(例如分別容易被自動車或智能軟件取代),具較大被淘汰的風險,而要求員工具創意及社交能力的工種,受到的威脅則較低。另一項在2017年發表的研究,研究員訪問了三百多名從事前沿人工智能研究的人員,要求受訪者估計人工智能對社會的影響。綜合訪問結果後,研究員推算出有一半機會機器會在未來45年及120年分別超越及取代人類所有工作(作者按:換言之,我們還有一半機會不會被取代!),而亞洲區研究員預計這情況會出現的時間,比西方同行預計的更早。類似的說法,Stephen HawkingElon Musk都曾分別公開講過,並成為人工智能「末日論」的重要彈藥。

先此聲明,筆者對這命題並無答案,預測未來(尤其是超過十年)絕非本人強項,而最尖端的人工智能科技也並非我的理解能力所及。不過,按理這次大數據會議的主題講者份屬科技界具地位人物,二人在報告中分別談及「環中人」的重要性,強調人類知識在機器學習的角色,而並非指出人類將被電腦取替,這就值得關注。尤其是,這種講法與上述社會中不少人所論及的末世氣氛有所差異。

例如,美國東北大學教授Carla E. Brodley是第一位主題講者,她的講題就是「環中人」在機器學習的應用(Human-in-the-loop Applied Machine Learning)。她談了很多不同領域,包括醫療科技和環境科技專家的合作項目之後,她的結語大意是這樣的:市面上有很多不同種類的計算法,但機器學習的成功之道是要有「好」的培訓數據(training data),與及邀請人類專家的參與。

簡而言之,很多人談到大數據,只是強調它的「大」,好像只要數據量能足夠地大,透過機器就能跑出有意義的東西,甚至根本不需要問「為什麼」,正是所謂的「理論之終結」(The End of Theory) ——好像Google根本不需要是語言專家,亦不需要懂某一種語言,它只需要擁有龐大的語言數據讓機器學習,機器便能跑出該語言的翻譯。然而,這種強調「大」卻不求人類認知理解的大數據分析,是否真的能處理在複雜的現實社會中出現的紛紜世事呢?

看幾個例子。Google Flu曾經有一段風光日子,利用首頁用戶搜尋的關鍵詞,能比美國疾病控制及預防中心(CDC)更早計算出疫情爆發,但該項目推出數年後被發現數據連番錯估疫情,網頁近年更已停止更新。另外,曾經在2008及2012年兩次選舉中,利用綜合計算不同機構的民調數據,成功預測美國選舉結果而一炮而紅的暢銷書《精準預測》作者Nate Silver,其主持的網站在2016年總統選舉錯估選情,選舉當日還是認為希拉莉(希拉蕊)勝出機會高達七成。

究竟問題出在那裏呢?很多人會反省,認為問題並不在於數據分析和計算法等方法上,誠如Carla E. Brodley教授所言,是在數據的質素本身。誠然,機器還是可以透過模型和計算法「判斷」數據質量的好壞,但若能配合人類的知識,尤其是綜合人類專家多方的判斷,可以令機器作出的結果更貼近「實情」及具備「人情」。人類的知識可以判斷機器預測出來的結果是否「合理」,可以立即調教「不合理」的數學模型和計算法,從而糾正機器的「錯誤」結果。

其實,社會科學學者對這個邏輯並不陌生,與我們方法學入門基本功中有關外部效度(external validity)的概念類同。而以電腦科學而言,人類可協助製造出可信任的數據或判斷其質素,再用以讓機器學習,跑出模型,機器便可以一種半監督學習(semi-supervised learning)的方式,找出人類難以辨認並隱藏在數據中的模式和關連,讓人類的認知決定參與其中,而並非被機器完全取代或淘汰。

人類是否接受完全取決於機器的結果?

另一個支持「環中人」的因素,是人類是否接受完全取決於機器的結果,尤其是涉及生命或人生重要的決定。試想,一個正面對接受或不接受某醫學治療的病人,在生命關口前作決定,會選擇機器跑出、按模型計出來但難以理解的治療選項,還是相信醫生作出的臨床診斷?在設計自動車在失控時的自動緊急反應模型時,你是否道德上接受讓機器按「保障客戶利益」的原則,保護有能力購買自動車的車主,而轉軚盤撞向行人路上的男女老幼來減速嗎?

當電腦化進一步普及至各社會領域的時侯,上述的情況並非天方夜譚。人類按社會認知和道德價值作出的決定,若完全被未來的大數據和人工智能世代排拒和取代的話,又是否我們希望見到的發展呢?

目前,公眾見到的大多數,屬我們稱之為弱人工智能(weak artificial intelligence,或可簡稱弱智)應用,集中在單一工作和特定環境下進行,例如捉圍棋或辨認圖象等。現在的技術要做到好像人類智能一樣可以處理多種不同類型的工作,懂得「舉一反三」和「一理通百理明」的通用人工智能(artificial general intelligence),還有一段距離。數十年後會發生什麼事情,我無能力預計,但至少目下我們還有很多有關人工智能引發的社會問題,更值得我們關注,其中一個就是人工智能偏見(AI bias)的問題。礙於篇幅,下期再談。

(傅景華,香港大學新聞及傳媒研究中心副教授)

讀者評論 6

會員專屬評論功能升級中,稍後上線。加入會員可閱讀全站內容,享受更多會員福利。
  1. 大陆的发展方向完全跑偏了吧,都想获取用户的隐私和控制人类,可怕的是掌握数据的那些人吧。在有限的历史中,大灾难都是统治者造成的。

  2. 2016年法國國慶日的卡車壓人攻擊已經解釋了未來AI後的社會走向。
    這個卡車司機是阿拉伯裔,但絕對不是伊斯蘭教,伊斯蘭教只是給他的死亡賦予天堂的意義。
    因為在此同時,德國的卡車已經可以自動駕駛到義大利了。
    未來什麼低端人口,高端人口已經不流行了。「弱智人口」與「高智人口」才會是聯合國激烈辯論的議題。
    樂觀的,是高智人口。
    悲觀的,是低智人口。
    懷疑的,是即將被AI取代的傳統號稱高智的大學教授。
    不遠的將來,農場裡圈養的不只有豬,雞,羊。還有以聖經,可蘭經,佛經餵養的「低智人口」,提供給高智人口能量與性需求。
    至於未來的救世主如何精通聖經,可蘭經,佛經後,在低智農場中發明AI的AI,來反制高智人口,達到歷史中所謂的「超AI革命」,又是後話了。

  3. 如果按作者的分類法,我大致是80%樂觀派,19%悲觀派、1%懷疑派這樣的組成。樂觀是因爲只要社會制度仍然合理且有效運轉,事情大勢便不會一直往糟糕失控的方向發展,當然也許會產生階段性的陣痛,但未必需要做一個悲觀派。至於懷疑派,其實我感覺AI發展的瓶頸離不開一個問題,就是智慧是什麽,也許等到人類有一天搞清楚了這個問題,真正的AI就會出現了吧。人類仍然在利用神(如果存在)賜予的寶藏——大腦來應對一切問題,而我們對這一寶藏仍知之甚少,我們無法對大腦整個運行過程精確建模,貌似大腦90%的區域我們完全不瞭解其作用。現在對AI的有效利用都離不開人的參與,所以我覺得AI這個詞只具有名字的意義,而真的不代表智能,就如人類教會了一隻猩猩如何高效地摘香蕉,它摘得比任何一個人類都好,但我們不能認為我們創造了一個高智慧猩猩。即便猩猩生下來,它也有起碼的生存需求會引導它做出基本的生命行爲而不需要任何外部指導/干預,現在的AI連這一點估計都做不到?
    P.S. 思考這些問題的美好就在於,在人類科學所能觸摸到的邊界往外一點,那裏是無窮的想象空間,反正暫時無法證僞。比如量子力學,會不會真的存在多元宇宙/平行宇宙?比如AI,一旦人類研究AI的過程反過來解密了大腦的許多謎團,會不會發明出工具讓人催生出超級智慧?或者類似基於腦電波的超能力?心靈感應?

  4. 人工智能思考方式不會跟人類一致,因為人類思考受到感性限制!所以人類未必能預測AI想什麼🤔

  5. 作為技術補充,所謂semi-supervised learning (甚至unsupervised learning) 已經是目前主流的框架 – Deep Learning所使用的架構了。
    而完全無外部資料的人工智慧在特定領域也超越了使用人類挑選過資料的人工智慧了 (e.g., AlphaGo Zero勝過AlphaGo Master)。成果已發布至Nature上。目前是否需要人類介入資料組的選擇,在實證研究的角度是存疑的。

  6. 所以,思辯和緊守各道德價值而不被巿場或商業利益主宰將變得更為重要。