评论深度

傅景华:人工智能面前,是否人人平等?

平心而论,以收集大型数据配合自动处理系统为手段,把人进行社会分类为目的,再向各类型民众施以不同待遇,这些都并非中国首创。那么,要如何走出所谓是否“妖魔化”的讨论?

电脑跑出来的估算并不能孤立地称之为“中立”,当中呈现和强化既定的歧视。

电脑跑出来的估算并不能孤立地称之为“中立”,当中呈现和强化既定的歧视。摄:VCG via Getty Images

刊登于 2018-07-10

#探索学院#评论#傅景华

笔者两周内一口气在欧洲跑了五个城市,披星带月的穿梭大小学院,开了五场以中国网络信息控制为题的讲座,由微博/微信的审查制度,谈到中国网络管理政策的全球性延伸,和应者众。演说引用的众多材料中,论台下听众反应最热烈者,当数触及有关中国“社会信用体系”的时侯,大家很不其然地想起西方媒体过去半年一连串以特定框架的报导——那种套入“21世纪化”欧威尔《一九八四》框架的视角;听众对这个威权社会运用人工智能进行社会操控和打压的课题,尤其是有关信用评分如何影响异见人士的日常生活、外地访客会否被打分等等问题,大感兴趣。

或许有人会指责这类是对中国存有偏见的“妖魔化”描述,没有考虑中国国情和体制不同,由于社会缺乏具公信的第三方信用机制,官商民间长年在没有互信基础下互动,所以才需要借用“客观”的大数据和人工智能来建立一套巨细无遗的信用系统,以制定指标供各方参考。

平心而论,以收集大型数据配合自动处理系统为手段,把人进行社会分类为目的,再向各类型民众施以不同待遇,这些都并非中国首创。美国政治学者Virginia Eubanks去年发表的Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor一书中指出,美国不少州份早已将审批社会服务自动化,运用电脑运算技术取代由社工决定申请获批与否;新系统推出后曾令大批有需要使用医疗、生活津贴和食物券的美国人提交的申请被拒。还有另一个例子,2014缅因州州长为推行收紧公共援助的政策,利用大数据挖掘技术(data mining),查出部分生活津贴受益人在售卖烟酒商店设置的柜员机的提款纪录,及后高调公开资料,借此引导公众认为有人或滥用公共援助。

另一美国法律学者Andrew Guthrie Ferguson去年发表的书The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement中亦指出,美国执法机构已经大量应用大数据和人工智能技术,透过挖掘人口资料和犯罪个案的历史数据,得出不同社区的犯罪风险评估,借此以数据估算应当在各个地方布设的警力。不过,这些历史数据本身已反映了现实世界的不公平和偏见,当警方布置更多的警力,破更多的罪案时,结果便推高当地犯罪率,形成恶性循环。所以,电脑跑出来的估算并不能孤立地称之为“中立”,当中呈现和强化既定(特别对有色人种)的歧视。

阅读全文,欢迎加入会员

华文世界不可或缺的深度报导和多元声音,了解更多

立即订阅

已经订阅?登入

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读