深度 評論

傅景華:AI面前,是否人人平等?

平心而論,以收集大型數據配合自動處理系統為手段,把人進行社會分類為目的,再向各類型民眾施以不同待遇,這些都並非中國首創。那麼,要如何走出所謂是否「妖魔化」的討論?


電腦跑出來的估算並不能孤立地稱之為「中立」,當中呈現和強化既定的歧視。 攝:VCG via Getty Images
電腦跑出來的估算並不能孤立地稱之為「中立」,當中呈現和強化既定的歧視。 攝:VCG via Getty Images

筆者兩周內一口氣在歐洲跑了五個城市,披星帶月的穿梭大小學院,開了五場以中國網絡訊息控制為題的講座,由微博/微信的審查制度,談到中國網絡管理政策的全球性延伸,和應者眾。演說引用的眾多材料中,論台下聽眾反應最熱烈者,當數觸及有關中國「社會信用體系」的時侯,大家很不其然地想起西方媒體過去半年一連串以特定框架的報導——那種套入「21世紀化」歐威爾《一九八四》框架的視角;聽眾對這個威權社會運用人工智能進行社會操控和打壓的課題,尤其是有關信用評分如何影響異見人士的日常生活、外地訪客會否被打分等等問題,大感興趣。

或許有人會指責這類是對中國存有偏見的「妖魔化」描述,沒有考慮中國國情和體制不同,由於社會缺乏具公信的第三方信用機制,官商民間長年在沒有互信基礎下互動,所以才需要借用「客觀」的大數據和人工智能來建立一套巨細無遺的信用系統,以制定指標供各方參考。

平心而論,以收集大型數據配合自動處理系統為手段,把人進行社會分類為目的,再向各類型民眾施以不同待遇,這些都並非中國首創。美國政治學者Virginia Eubanks去年發表的Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor一書中指出,美國不少州份早已將審批社會服務自動化,運用電腦運算技術取代由社工決定申請獲批與否;新系統推出後曾令大批有需要使用醫療、生活津貼和食物券的美國人提交的申請被拒。還有另一個例子,2014緬因州州長為推行收緊公共援助的政策,利用大數據挖掘技術(data mining),查出部分生活津貼受益人在售賣煙酒商店設置的櫃員機的提款紀錄,及後高調公開資料,藉此引導公眾認為有人或濫用公共援助。

另一美國法律學者Andrew Guthrie Ferguson去年發表的書The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement中亦指出,美國執法機構已經大量應用大數據和人工智能技術,透過挖掘人口資料和犯罪個案的歷史數據,得出不同社區的犯罪風險評估,藉此以數據估算應當在各個地方佈設的警力。不過,這些歷史數據本身已反映了現實世界的不公平和偏見,當警方佈置更多的警力,破更多的罪案時,結果便推高當地犯罪率,形成惡性循環。所以,電腦跑出來的估算並不能孤立地稱之為「中立」,當中呈現和強化既定(特別對有色人種)的歧視。

觸摸世界的政經脈搏
你觀察時代的可靠伙伴

已是端會員?請 登入賬號

端傳媒
深度時政報導

華爾街日報
實時財訊

全球端會員
智識社群

每週精選
專題推送

了解更多
評論 探索學院 傅景華