评论|傅景华:AI淘汰人类?末日论以外的另类思考

很多人谈到大数据,只是强调它的“大”,好像只要数据量能足够地大,透过机器就能跑出有意义的东西,甚至根本不需要问“为什么”……
傅景华:我怀疑乐观派的科技革命论太过一厢情愿,亦同时对悲观派倾向极端的想法有所保留。

在过去数年,大数据、人工智能和机器学习等信息科技,逐步走进社会成为公众话语,由大型科技企业到初创公司,均争相开发贴上上述标签的新技术和产品;这几门学问亦成为大学跨学科的研究显学(至少敝校视之为策略研究重点),由系到院,从教授到大学行政高层,人人琅琅上口。当它们成为大众话语,市场上消息不绝,议题自然经常成为媒体的焦点。大众媒体的报导框架大致有两大类:乐观派通常会视新科技为解决社会问题的良方,用以推动变革,技术可提高社会效率及改善人类福址(科技革命框架);悲观派则视之为人类的威胁,个人资料可被政府或企业滥用,人工智能将取代人类的职位,机器人将超越人类并控制甚至伤害人类云云(道德恐惧框架)。两者皆各有受众。

笔者属怀疑派,我怀疑乐观派的科技革命论太过一厢情愿,亦同时对悲观派倾向极端的想法有所保留。带着一串疑问,我以一个社会科学学者的身份,参加刚过去的12月份在波士顿举行的IEEE大数据国际会议,希望亲身了解科技界对这几门技术的最新发展,尤其关心有关科技与社会关系的讨论。会议上见闻甚多,难以一一尽录。笔者在本文主要介绍其中一个观察。

“环中人”与“好”的培训数据

但凡这类国际式学术会议,作为首天主题演讲的讲者们,多在业界有可压场的江湖地位,讲题亦多属行内最新发展,并且可让普遍与会者感兴趣的题目。笔者发现,会议首天早上两个主题讲者都不约而同地提出,人类知识在人工智能和机器学习过程中的角色,即所谓“环中人”(human in the loop)的概念。这概念某程度上回应了社会上不少人认为机器与人类呈互相对立之势的见解。

论及人工智能将超越或取代人类这命题,很多人都会引述牛津大学2013年的一项研究,该研究用数学模型配合一连串数据假设的推算,估计未来20年美国有近半工作职位陷于被电脑化取代的危机,其中运输物流及办公室后勤等重复性较高的工种(例如分别容易被自动车或智能软件取代),具较大被淘汰的风险,而要求员工具创意及社交能力的工种,受到的威胁则较低。另一项在2017年发表的研究,研究员访问了三百多名从事前沿人工智能研究的人员,要求受访者估计人工智能对社会的影响。综合访问结果后,研究员推算出有一半机会机器会在未来45年及120年分别超越及取代人类所有工作(作者按:换言之,我们还有一半机会不会被取代!),而亚洲区研究员预计这情况会出现的时间,比西方同行预计的更早。类似的说法,Stephen HawkingElon Musk都曾分别公开讲过,并成为人工智能“末日论”的重要弹药。

先此声明,笔者对这命题并无答案,预测未来(尤其是超过十年)绝非本人强项,而最尖端的人工智能科技也并非我的理解能力所及。不过,按理这次大数据会议的主题讲者份属科技界具地位人物,二人在报告中分别谈及“环中人”的重要性,强调人类知识在机器学习的角色,而并非指出人类将被电脑取替,这就值得关注。尤其是,这种讲法与上述社会中不少人所论及的末世气氛有所差异。

例如,美国东北大学教授Carla E. Brodley是第一位主题讲者,她的讲题就是“环中人”在机器学习的应用(Human-in-the-loop Applied Machine Learning)。她谈了很多不同领域,包括医疗科技和环境科技专家的合作项目之后,她的结语大意是这样的:市面上有很多不同种类的计算法,但机器学习的成功之道是要有“好”的培训数据(training data),与及邀请人类专家的参与。

简而言之,很多人谈到大数据,只是强调它的“大”,好像只要数据量能足够地大,透过机器就能跑出有意义的东西,甚至根本不需要问“为什么”,正是所谓的“理论之终结”(The End of Theory) ——好像Google根本不需要是语言专家,亦不需要懂某一种语言,它只需要拥有庞大的语言数据让机器学习,机器便能跑出该语言的翻译。然而,这种强调“大”却不求人类认知理解的大数据分析,是否真的能处理在复杂的现实社会中出现的纷纭世事呢?

看几个例子。Google Flu曾经有一段风光日子,利用首页用户搜寻的关键词,能比美国疾病控制及预防中心(CDC)更早计算出疫情爆发,但该项目推出数年后被发现数据连番错估疫情,网页近年更已停止更新。另外,曾经在2008及2012年两次选举中,利用综合计算不同机构的民调数据,成功预测美国选举结果而一炮而红的畅销书《精准预测》作者Nate Silver,其主持的网站在2016年总统选举错估选情,选举当日还是认为希拉里(希拉蕊)胜出机会高达七成。

究竟问题出在那里呢?很多人会反省,认为问题并不在于数据分析和计算法等方法上,诚如Carla E. Brodley教授所言,是在数据的质素本身。诚然,机器还是可以透过模型和计算法“判断”数据质量的好坏,但若能配合人类的知识,尤其是综合人类专家多方的判断,可以令机器作出的结果更贴近“实情”及具备“人情”。人类的知识可以判断机器预测出来的结果是否“合理”,可以立即调教“不合理”的数学模型和计算法,从而纠正机器的“错误”结果。

其实,社会科学学者对这个逻辑并不陌生,与我们方法学入门基本功中有关外部效度(external validity)的概念类同。而以电脑科学而言,人类可协助制造出可信任的数据或判断其质素,再用以让机器学习,跑出模型,机器便可以一种半监督学习(semi-supervised learning)的方式,找出人类难以辨认并隐藏在数据中的模式和关连,让人类的认知决定参与其中,而并非被机器完全取代或淘汰。

人类是否接受完全取决于机器的结果?

另一个支持“环中人”的因素,是人类是否接受完全取决于机器的结果,尤其是涉及生命或人生重要的决定。试想,一个正面对接受或不接受某医学治疗的病人,在生命关口前作决定,会选择机器跑出、按模型计出来但难以理解的治疗选项,还是相信医生作出的临床诊断?在设计自动车在失控时的自动紧急反应模型时,你是否道德上接受让机器按“保障客户利益”的原则,保护有能力购买自动车的车主,而转軚盘撞向行人路上的男女老幼来减速吗?

当电脑化进一步普及至各社会领域的时侯,上述的情况并非天方夜谭。人类按社会认知和道德价值作出的决定,若完全被未来的大数据和人工智能世代排拒和取代的话,又是否我们希望见到的发展呢?

目前,公众见到的大多数,属我们称之为弱人工智能(weak artificial intelligence,或可简称弱智)应用,集中在单一工作和特定环境下进行,例如捉围棋或辨认图象等。现在的技术要做到好像人类智能一样可以处理多种不同类型的工作,懂得“举一反三”和“一理通百理明”的通用人工智能(artificial general intelligence),还有一段距离。数十年后会发生什么事情,我无能力预计,但至少目下我们还有很多有关人工智能引发的社会问题,更值得我们关注,其中一个就是人工智能偏见(AI bias)的问题。碍于篇幅,下期再谈。

(傅景华,香港大学新闻及传媒研究中心副教授)

读者评论 6

会员专属评论功能升级中,稍后上线。加入会员可阅读全站内容,享受更多会员福利。
  1. 大陆的发展方向完全跑偏了吧,都想获取用户的隐私和控制人类,可怕的是掌握数据的那些人吧。在有限的历史中,大灾难都是统治者造成的。

  2. 2016年法國國慶日的卡車壓人攻擊已經解釋了未來AI後的社會走向。
    這個卡車司機是阿拉伯裔,但絕對不是伊斯蘭教,伊斯蘭教只是給他的死亡賦予天堂的意義。
    因為在此同時,德國的卡車已經可以自動駕駛到義大利了。
    未來什麼低端人口,高端人口已經不流行了。「弱智人口」與「高智人口」才會是聯合國激烈辯論的議題。
    樂觀的,是高智人口。
    悲觀的,是低智人口。
    懷疑的,是即將被AI取代的傳統號稱高智的大學教授。
    不遠的將來,農場裡圈養的不只有豬,雞,羊。還有以聖經,可蘭經,佛經餵養的「低智人口」,提供給高智人口能量與性需求。
    至於未來的救世主如何精通聖經,可蘭經,佛經後,在低智農場中發明AI的AI,來反制高智人口,達到歷史中所謂的「超AI革命」,又是後話了。

  3. 如果按作者的分類法,我大致是80%樂觀派,19%悲觀派、1%懷疑派這樣的組成。樂觀是因爲只要社會制度仍然合理且有效運轉,事情大勢便不會一直往糟糕失控的方向發展,當然也許會產生階段性的陣痛,但未必需要做一個悲觀派。至於懷疑派,其實我感覺AI發展的瓶頸離不開一個問題,就是智慧是什麽,也許等到人類有一天搞清楚了這個問題,真正的AI就會出現了吧。人類仍然在利用神(如果存在)賜予的寶藏——大腦來應對一切問題,而我們對這一寶藏仍知之甚少,我們無法對大腦整個運行過程精確建模,貌似大腦90%的區域我們完全不瞭解其作用。現在對AI的有效利用都離不開人的參與,所以我覺得AI這個詞只具有名字的意義,而真的不代表智能,就如人類教會了一隻猩猩如何高效地摘香蕉,它摘得比任何一個人類都好,但我們不能認為我們創造了一個高智慧猩猩。即便猩猩生下來,它也有起碼的生存需求會引導它做出基本的生命行爲而不需要任何外部指導/干預,現在的AI連這一點估計都做不到?
    P.S. 思考這些問題的美好就在於,在人類科學所能觸摸到的邊界往外一點,那裏是無窮的想象空間,反正暫時無法證僞。比如量子力學,會不會真的存在多元宇宙/平行宇宙?比如AI,一旦人類研究AI的過程反過來解密了大腦的許多謎團,會不會發明出工具讓人催生出超級智慧?或者類似基於腦電波的超能力?心靈感應?

  4. 人工智能思考方式不會跟人類一致,因為人類思考受到感性限制!所以人類未必能預測AI想什麼🤔

  5. 作為技術補充,所謂semi-supervised learning (甚至unsupervised learning) 已經是目前主流的框架 – Deep Learning所使用的架構了。
    而完全無外部資料的人工智慧在特定領域也超越了使用人類挑選過資料的人工智慧了 (e.g., AlphaGo Zero勝過AlphaGo Master)。成果已發布至Nature上。目前是否需要人類介入資料組的選擇,在實證研究的角度是存疑的。

  6. 所以,思辯和緊守各道德價值而不被巿場或商業利益主宰將變得更為重要。