评论|傅景华:人工智能面前,是否人人平等?

平心而论,以收集大型数据配合自动处理系统为手段,把人进行社会分类为目的,再向各类型民众施以不同待遇,这些都并非中国首创。那么,要如何走出所谓是否“妖魔化”的讨论?
电脑跑出来的估算并不能孤立地称之为“中立”,当中呈现和强化既定的歧视。

笔者两周内一口气在欧洲跑了五个城市,披星带月的穿梭大小学院,开了五场以中国网络信息控制为题的讲座,由微博/微信的审查制度,谈到中国网络管理政策的全球性延伸,和应者众。演说引用的众多材料中,论台下听众反应最热烈者,当数触及有关中国“社会信用体系”的时侯,大家很不其然地想起西方媒体过去半年一连串以特定框架的报导——那种套入“21世纪化”欧威尔《一九八四》框架的视角;听众对这个威权社会运用人工智能进行社会操控和打压的课题,尤其是有关信用评分如何影响异见人士的日常生活、外地访客会否被打分等等问题,大感兴趣。

或许有人会指责这类是对中国存有偏见的“妖魔化”描述,没有考虑中国国情和体制不同,由于社会缺乏具公信的第三方信用机制,官商民间长年在没有互信基础下互动,所以才需要借用“客观”的大数据和人工智能来建立一套巨细无遗的信用系统,以制定指标供各方参考。

平心而论,以收集大型数据配合自动处理系统为手段,把人进行社会分类为目的,再向各类型民众施以不同待遇,这些都并非中国首创。美国政治学者Virginia Eubanks去年发表的Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor一书中指出,美国不少州份早已将审批社会服务自动化,运用电脑运算技术取代由社工决定申请获批与否;新系统推出后曾令大批有需要使用医疗、生活津贴和食物券的美国人提交的申请被拒。还有另一个例子,2014缅因州州长为推行收紧公共援助的政策,利用大数据挖掘技术(data mining),查出部分生活津贴受益人在售卖烟酒商店设置的柜员机的提款纪录,及后高调公开资料,借此引导公众认为有人或滥用公共援助。

成為會員

即享端傳媒全站暢讀

立即訂閱

端 X 華爾街日報 雙會籍

年末優惠65折,支持2024年的華語獨立新聞

約HK$1.8/天

评论区 5

评论为会员专属功能。立即登入加入会员享受更多福利。
  1. @牆奴
    邏輯上不對
    假設一個警力可以破獲一個案件
    那麼就算AB兩個社區都有100個案件,但A社區有30警力, B社區只得20. 那麼相同情況下A社區仍是會比B高.
    何況以上例子一開始怖置警力時要參考過往數據,而該數據如果有偏見的話即由一開始已經產生問題. AI 本身是中立但仍可能會影響有

  2. 除非摆脱人类控制 成为神

  3. 除非人工智能的技術和控制權,被掌握在人人手裏,否則不可能人人平等。另外,如果一個社區被系統誤判,實際犯罪率並不高,那麼即使部署再多的警力,也不可能被破獲更多的罪案。而如果一個社區,總是有更多的罪案發生,那麼這個社區本身一定有問題,這並不是什麼偏見和歧視。

  4. 「無論結果是準確還是不準備」-錯字?

    1. 謝謝讀者指正,已修改。