笔者两周内一口气在欧洲跑了五个城市,披星带月的穿梭大小学院,开了五场以中国网络信息控制为题的讲座,由微博/微信的审查制度,谈到中国网络管理政策的全球性延伸,和应者众。演说引用的众多材料中,论台下听众反应最热烈者,当数触及有关中国“社会信用体系”的时侯,大家很不其然地想起西方媒体过去半年一连串以特定框架的报导——那种套入“21世纪化”欧威尔《一九八四》框架的视角;听众对这个威权社会运用人工智能进行社会操控和打压的课题,尤其是有关信用评分如何影响异见人士的日常生活、外地访客会否被打分等等问题,大感兴趣。
或许有人会指责这类是对中国存有偏见的“妖魔化”描述,没有考虑中国国情和体制不同,由于社会缺乏具公信的第三方信用机制,官商民间长年在没有互信基础下互动,所以才需要借用“客观”的大数据和人工智能来建立一套巨细无遗的信用系统,以制定指标供各方参考。
平心而论,以收集大型数据配合自动处理系统为手段,把人进行社会分类为目的,再向各类型民众施以不同待遇,这些都并非中国首创。美国政治学者Virginia Eubanks去年发表的Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor一书中指出,美国不少州份早已将审批社会服务自动化,运用电脑运算技术取代由社工决定申请获批与否;新系统推出后曾令大批有需要使用医疗、生活津贴和食物券的美国人提交的申请被拒。还有另一个例子,2014缅因州州长为推行收紧公共援助的政策,利用大数据挖掘技术(data mining),查出部分生活津贴受益人在售卖烟酒商店设置的柜员机的提款纪录,及后高调公开资料,借此引导公众认为有人或滥用公共援助。
@牆奴
邏輯上不對
假設一個警力可以破獲一個案件
那麼就算AB兩個社區都有100個案件,但A社區有30警力, B社區只得20. 那麼相同情況下A社區仍是會比B高.
何況以上例子一開始怖置警力時要參考過往數據,而該數據如果有偏見的話即由一開始已經產生問題. AI 本身是中立但仍可能會影響有
除非摆脱人类控制 成为神
除非人工智能的技術和控制權,被掌握在人人手裏,否則不可能人人平等。另外,如果一個社區被系統誤判,實際犯罪率並不高,那麼即使部署再多的警力,也不可能被破獲更多的罪案。而如果一個社區,總是有更多的罪案發生,那麼這個社區本身一定有問題,這並不是什麼偏見和歧視。
「無論結果是準確還是不準備」-錯字?
謝謝讀者指正,已修改。