在我准备提笔之际,忽然接到家父传来的信息,说他今天早上在自己脸书页面上、只限好友的贴文,才刚贴出就被检举下架了。家父有个习惯,就是每天会整理当天的历史大事,然后贴在自己的脸书上与朋友分享。而这天──3月15日──的历史大事,正好是让罗马从共和转变为终身独裁的凯撒大帝,在成为独裁者五年后被刺死。终身、独裁、大帝、被刺,家父在信息里笑着问是不是这有太多“关键字”,所以脸书自动自发地先把文下架再说。过了几下子,文章又重新在页面上出现了。
当然,这出闹剧只是过去数周里脸书一连串惨剧的小小一幕。在蒋公陵寝被泼漆之后,泼漆的团体、转录的声明、独派的友人,乃至于支持这行动的台大学代会、台大研协、辅大学生会等脸书社团都被检举下架、被禁言两天到一个月,也有许多人顺势发起了逃到推特的浪潮。但其实正在一年以前,大量的统派言论也同样受到下架禁言的处分,当时《中国时报》头版还画了“脸书绿色恐怖”的全彩漫画,蓝营LINE群组也不断出现与脸书友好的唐凤政务委员是高级特务等谣言。脸书在台湾的普及率已经高达七成,无论行动派、统派、独派都会使用,在这情况下,大家都把矛头指向了“脸书限制言论自由”。
“脸书限制言论自由”?这短短的一句话,其实可以从三个很大的面向来谈,而这也是这篇文章的三个主题:第一,脸书到目前做了什么?第二,什么是言论自由?第三,从言论自由的角度出发,脸书又能怎么管理言论?我们作为使用者又能要求什么?
企图中立的检举累积、人工筛选,与机器学习
当然,脸书本身不可能自己透露是怎么管理言论的,往往只能泛泛地说遵照社群守则、遵照国家法规。但从一些曝光的媒体新闻、演讲内容,以及笔者的私下访谈,或许可以摸到脸书言论管理的轮廓。
脸书在过去几年,将言论审查很大的心力放在反恐与伊斯兰国上。伊斯兰国透过社群网站招募欧洲年轻人到中东参与圣战与发动孤狼攻击。而自2016年特朗普(川普)当选以后,脸书则希望对抗假新闻的传播,其研究人员甚至多次主动公开假新闻及传播方式的相关研究,也公开俄罗斯或特朗普团队购买脸书广告的相关数据自清。另一方面,脸书也在前几个月公告,将针对仇恨言论、令人害怕的言论进行特别严格的管理。扎克伯格(祖克伯)特别在去年5月公告要全球招聘近五千人,试着让言论的保护更能贴近在地的政治脉络。
说要管理,脸书实际上怎么做呢?在过去几年,包括英国中间派的独立报以及网路科技媒体wired都有访谈了解脸书使用者按下检举之后会发生什么事。基本上,几年前脸书有聘用工作人员来检查每一个被检举的贴文。工作人员的电脑萤幕上,会不断跳出被检举的贴文一整串,然后他们就由上而下的一个个看这是否违规,违规的话决定要怎样的处分。
值得注意的事有两点,第一,贴文出现的顺序取决于被检举的数量,被同时检举越多次就越快浮到工作人员的电脑萤幕上。第二,据受访的工作人员表示,人员流动率极高,因为薪水低、压力大,每日都有看不完的断手断脚、性器官、虐童、儿童情色等亟需删除的内容,许多工作人员也因此有了心理疾病。
随着近日机器学习走红,我们没有理由不相信脸书已经结合了机器学习以及人工判读,来加快言论管理的方式了。在许多网友的测试与回报,以及笔者私下的访谈中,可以大致知道脸书的管理方式还是以文字内容筛选跟网友检举并行。某些文字会立刻被检举下架,快到难以让人相信是有其他读者检举的地步,例如本文一开始家父的例子。而有些内容则是显然受到敌对阵营号召检举,才在一段时间内被下架,随后脸书检查后重新上架。
根据笔者在脸书工作的台湾以及美国好友们保证,脸书在政治立场上──尤其是台湾议题上──是还没有特定的官方偏心的。所以这一切还是看文章内容、看检举数量,以及看那些身心俱疲的审查人员们来决定。随着人工决定的结果够多,那机器就可以从海量资料里面学习审查人员的判决模式,让某些图文会自动地被机器给筛选先下架,再佐以人工抽查是否有问题即可。这对于公司来说自动化绝对可以大省成本。
脸书这样做,有什么问题吗?
用检举数量、特定词汇、搭配上机器学习自动化的言论管理方式,最大的问题就是它会让脸书更成为强者的武器。几年前越南的社运团体就跟脸书抱怨,说越南政府疑似养了一千人以上的脸书网军,疯狂检举所有社运分子的脸书,还会偷偷查社运团体在脸书上号召集会游行的地点,在开始前把那边断水断电断讯号。假如照检举多的就删,那一定就是现实生活中拳头大、号召力大的人赢。
至少,我们希望脸书不是全靠检举数量来公投谁的言论要下架,而希望恰当的言论内容是可以受到保护的,因为这是我们的言论自由。那,什么是恰当?什么是言论自由?
言论自由:脉络、目的性,与生命有限的艰难
当然,跟脸书一家私人公司谈论言论自由本身就是困难的。公司的目的是要赚钱,而言论自由这个权力,本来是用来对抗拥有暴力合法权的政府。但我们或许可以从脸书公告的官方社群守则下手。社群守则也是目前脸书将各种言论内容下架时最常引用的理由。而这些社群守则,在许多层面上跟言论自由的理论是接近的。
到底什么是言论自由?为什么、凭什么要管理言论?这个问题,是笔者以前在担任PTT-NTU版(PTT的台湾大学论坛版)版主的两年内不断追寻着答案(尤其是每当要删文、让特定帐号禁止发言一段时间时,就会出现各系同学寄来的万言书抗辩),也曾修课并与多次参与大法官释宪的提议律师讨论。理论上,言论自由就是想讲什么就讲什么,没有任何限制,也没有任何的目的性,本质上就是天赋的人权、天赋的嘴巴。
然而,人是群居动物,人们聚在一起生活,便要设立一些规范,但我们希望这些规范带来的好处会大于限制人权的坏处。在言论自由的理论中,通常先把言论区分成两类:事实以及评价。刚过世的台湾前大法官吴庚曾说,事实有真实与否的判准(虽然美国法系可能不同意),而评价本身则是个人好恶。对于事实言论的限制,刑法上以诽谤罪订之:你讲别人没做过的事,所以大家要罚你。但凭什么罚呢?理想中的言论自由,就是大家你一句我一句,你讲错话被我纠正,最后“爱好真实”的群众在时间精力无限之下,自然会透过自由的言论交换而得到真实,不必外力介入。
可惜不幸地,人们的时间精力脑力眼力都有限,我们不可能接收并处理全世界正在发生的事,而大脑在有限生命选择的长期演化下,让第一印象的效果远大于事后更正。因此人们希望鼓励大家讲事实时都是真的事实,对非事实的言论给予惩罚,并希望这样带来“促进讲事实的效率”可以高于“人们怕受罚而不敢讲话带来的不效率”。当然,就言论管理者来说,言论管理者通常没有确认事实的能力,还是得靠法院来做为判决。
人类时间精力有限的这个逻辑,同样可以推演到一些言论空间的无效率使用上。举例来说,PTT一页只能塞得下23篇最新的文章,而人们一天有空看完的脸书文章也有限。假如有人在那边每秒钟都贴一篇新的《出师表》、每秒在每篇文下面都回一个无关的新闻、把大学海报栏位全部贴自家海报,那大家根本也无法意见交流了。在人力有限的逻辑之下,也可以推演出版面的合理使用准则,进而赋予言论管理者一些权力来帮忙维持版面的秩序,例如说到处贴重复文字会被删除等等。脸书事实上也有针对这些洗版进行管理,无论内容为何,大家也尚能接受。但此处我们已经开始增加对言论“目的”的假设了,就是在物理上(时间、空间上)不能妨碍其他人的言论。
物理上不能妨碍,那心理上呢?当问出这个问题,代表要进入言论自由讨论的深水区,也就是对第二类的评价进行管理。在这里,需要引进人类生命有限以外的另一个参数:“个人尊严值”。假如个人尊严不存在,那不管人们怎么互骂,都不会有任何的影响力,那也不必管制评论了。但假如真是如此,人们也根本不会花费心力互骂了。我们会骂出口、给予评论,背后就是因为我们相信个人尊严是存在的,所以希望透过发表言论来改变目标对象的个人尊严。进一步地,我们常常希望可以透过改变目标对象的个人尊严,来让他改变他的外显行为。在社会心理学上,已经有许多论证指出,“心痛”的感觉与机制跟生理疼痛是类似的。
当我们接受个人尊严是存在的,而且会受他人言论影响,而且个人尊严会影响到其他个人行为时,许多言论管理的相关理论或讨论才能继续发展下去。同时,这也是言论管理者──无论是政府、脸书,或是PTT版主──要开始站出立场的地方。
首先是歧视、仇恨与暴力言论。管理这些言论的逻辑,在于我们相信这些言论会降低个人或团体的尊严,所以会影响这些人在社会上的其他发声与行为。这类管理在很多时候是重要的,例如非裔美国人可能真的看到三K党或是点火十字架,就会想到长辈被虐杀的过往而不再敢讲话,受到他人影响而在言论市场上失去自己发语的空间。基于“不要影响他人言论自由”以及“有一定尊严值以上才敢讲话”这两个假设,我们可以推衍出约束针对少数、弱势群体的仇恨暴力言论,让本来尊严值较低的人们更有讲话的机会与力量。当然,假如你的信仰是多元主义,你更会相信让大家都讲话、有多元言论本身是好的方向。
多对少的判断还不算太困难。管理仇恨言论困难之处在于:少数与少数之间,以及少数对多数,或者是少数群体里的最高极端值对多数群体里的最低极端值的仇恨言论呢?少数对少数通常会出现的问题就是关键字审查。举例来说,黑人之间互称黑鬼很常见,但白人对黑人就不行,因为我们会假设前者的状况不会降低各自的尊严值,但后者的状况会。而在台湾,某些时候骂三字经被判决无罪,但有些状况则有。假如脸书的系统只针对关键字进行审查而忽略其脉络,那很容易就会挡掉无关伤害的言论或心情抒发。
不过,话又说回来,要进入脉络本身是件很困难的事,就算现在文字探勘技术已经很进步,但就笔者所知,光是要电脑读一篇新闻,判断新闻里面事件在哪里发生的,电脑程序的正确率还只有七八成左右,远低于人类能力。当然,我们也可以说这类事件交给被动的检举再来处理,但当要处理时,管理者还是得进入脉络。
少数对多数,也跟早前的泼漆案有关了(当然泼漆案更复杂一点)。而这也是判断脸书管理者意识形态立场之处。对于企图保持中立的脸书管理者来说,禁止互骂或都给骂,自然是最方便的。但假如两群人的尊严值本来就有严重落差,那互骂一阵之后减去相同的值,最终言论市场上就只剩下本来就在社会上处于优势的多数群体了。这样号称维持中立,但实际上就是倾向多数,对“维持多元”是不利的。
可是,假如言论管理者企图要维持多元,那就会开始给予多数群体跟少数群体不同的惩罚判准,而且需要对社会脉络与尊严分布状况有充足的掌握。而这往往不容易,甚至会随立场不同而有不同的看法。举例来说,脸书自然可以假设全部的泼漆行为都会造成对方群体的尊严减损,所以只要支持泼漆一律违反社群守则的暴力言论。但假如脸书认为这泼漆是受打压的少数针对优势的多数发出的不平之鸣,那也许脸书会稍微放宽一点。例如脸书在前几年“阿拉伯之春”时,就有特别放宽那些政府军警虐待百姓的画面可以流传,而暂时无视亲政府派的大量检举。
但到底谁是多数、谁是少数?谁尊严值起始点比较高、谁比较容易降低尊严值?一些人认为八百壮士与台湾统派财力雄厚、言论伤害他人,约束一点也应该,但八百壮士与台湾统派本身则认为整个台湾政府跟多数台湾选民都跟他们唱反调,他们仅剩言论自由可以发表意见。谁才是该被保护的少数呢?多数少数又会随着脉络跟大环境(国内政治?国际政治?)改变时,要怎么在无视国界的网路平台建立一致的判准呢?
假如我们考虑到群体内部的差异,问题就会变得更为复杂。就算是平均社会地位较高的团体,里面可能还是有尊严值较低、较易受伤害的人。而在平均社会地位较低的群体中,也可能有一些较出风头、可以抵抗言语攻击的个人。这些群内差异的存在,让我们想针对特定字眼、特定族群的评论用字来管理时,就会出现问题。
在我担任PTT版主期间,我的一位好朋友要求我惩罚网友“台北市大安区天龙人”这句推文。“天龙人”是漫画《ONE PIECE》里的一个群体,他们拥有全世界的统治权与财富,也很少离开所居住的圣地。而从统计上来说,台北市大安区的小孩考上台湾大学的机率更是屏东乡下的百倍,中位收入也远高于全台。这句“台北市大安区天龙人”自然可以说是弱势群体对优势群体的揶揄了。但我这位同学虽在大安区出生长大,家里经济状况却非常不好,家庭是本省人,他从小就是有一餐没一餐、帮忙摆地摊长大,历尽辛苦才终于考上台湾大学。对他来说,“天龙人”的标签伤害了他从小到大的生命历程。
同样地,骂说美国白人、华人平均财富高、应该提高大学入学门槛,同样无视了部分穷苦白人华人的苦难。言论管理者应该要管理这一类少数对多数的言论吗?假如禁止这一类的言论,那往往就放过了那些大多数真正享受优势的优势群体,会被那些人拿极端值来当样版、挡下一切社会系统性不公的指责、无视两个常态分布的平均值存在的显著差异。但假如不管理这一类言论,那些优势群体里的最低极端值人们受到的伤害又是真实的,也可能导致它们的声音在社会上消失。
总结来说,我们引进了“个人尊严值”这个概念,建立“发言能力所需的最低尊严门槛”,来企图论证管理评价并保护弱势群体的必要性。但这个概念会随着面对少数对少数、少数对多数的状况中而出现实际执行面的问题。言论管理者或许愿意作出支持多元主义的判断,努力的在每一桩案例里决定谁是优势群体、谁是弱势群体,并适当的保护并鼓励少数。但言论管理者也可以选择不投入这些资源与时间,而是看似中立的齐一画之,特定关键字就是不行、骂人就是不行,或干脆完全不管,而有意或无意地达到迎合社会优势群体的结果。而一旦考虑进多数、少数群体里的极端值时,个人尊严值作为一种言论管理的判断方式,就更为困难了。
脸书社群守则、检举机制,与言论自由
在脸书的社群守则里,开宗明义说脸书的目的在于“建立社群”。为了建立社群,脸书会特别审查“造成危险的(暴力、威胁)”、“不尊重他人的(色情、仇恨)”、“个人隐私的”,以及“智慧财产权”的相关内容。但脸书公告中也有特别提到,在某些情况下,为了公共利益,可能会让某些冒犯你个人的言论会出现在脸书上。
从言论自由的标准来说,在事实言论与空间合理使用上,脸书已经针对事实跟假新闻开始进行处理,我们还需事后检验成果。而在合理使用上,现在洗版文或机器人灌水文受到屏蔽,一般人对这些言论管理的意见也比较小。而且,脸书还允许个人封锁他人帐号,因此进一步保障每个人使用脸书的物理时间空间。而在对评论言论的管理上,脸书社群守则本身是已经有站出立场与目的的,就是“建立社群”。而从脸书官方主动庆祝同志婚姻法案等活动中,可以期待脸书对于社群的态度应该是倾向多元主义的。
不过,假如真是如此,那脸书目前的检举审查下架机制,就无法完整的搭配上脸书公告的社群守则与目标。假如脸书是依照外显行为或关键字就给予下架禁言,或是依照检举数量就给予裁罚,这在大多数的状况来说是只让社会优势群体的优势更大,如同把动物园的各种动物全部关在一起来练蛊。除了越南社运人士的抱怨外,脸书刚针对下架泼漆案台湾公关道歉了,而联合国刚针对脸书不管理对罗兴亚人的仇恨言论而发表谴责。
那我们应该期待脸书会认真地看每一个个案,探讨全世界每个群体的尊严值高低,然后再据此决定每一个检举里各方的受害程度吗?这很理想,但实务上很困难,投入的成本也极高,我们很难期待私人公司愿意做这样的判断。即使,我个人相信维持多元声音,短期投入成本虽然较高,但长期来说对于脸书才是有利可图的,这样也才更符合脸书公告的社群守则。
而另一方面,假如脸书都跟法院一样旷日废时的判断,往往会无法挡下一些重大的问题,例如说号召打人、暗杀、自杀等须立即处理的言论,脸书日前才因为没下架直播杀人案而饱受批评。可是就在此同时,脸书假如轻易的就用程序自动先挡下各种社会运动的号召,所有运动领袖发个文都要过一天才会出现在版上,那下一个阿拉伯之春与太阳花运动恐怕将成为泡影。
脸书的确有很多的技巧可以降低这些审查的成本,但这些技巧往往会对人们发言目的带来额外的损害。脸书与推特力推的实名制蓝勾勾(要上传有效证件影本才能申请)就是方法之一。另外,脸书可以偷偷让仇恨言论不让目标对象看到,这样短期就没有被检举的机会了,但这样也只会令各群体的同温层越来越浓厚,平行时空越来越多。
或者,脸书也可以多设立几个数值,包括用社会网络理论来估计每一位使用者的意识形态极端程度、在社会上的地位(脸书有用照片跟发文来估算使用者的财富等),以及检举他人的可靠程度等等来取代单一的检举数目。当意识形态极端者互相检举、特定帐号或新创帐号重复大量检举、地位高检举地位低时,脸书可以选择把这些检举数值打个折扣。但连Google在使用搜寻纪录判断使用者性别年龄时,都只有六成准确率的情况下,脸书这些额外参数的计算能帮助言论管理多少,尤其是针对言论自由理论里各群体极端值的问题,我也只能抱着观望的态度。而且,在这些数字计算出来之后,也许脸书就不会自我审查般地靠关键字下架凯撒大帝被刺杀之类的历史故事。但我猜泼漆跟支持泼漆还是会在先行下架审查再说的范围之内,无论是哪一边先泼而被检举的。
我想,关键之处,还是在于脸书对于“建立社群”这个目标要有更明确的刻画。技术上是可以再随着愿景去调整的,毕竟机器学习人工审查,也需要先有答案才可以建立演算法。
作为脸书使用者,作为政治人
跟绝大多数的脸友一样,我也只是一个免费使用脸书的人。我们没有买过脸书广告、不是脸书的股东,更不是脸书的数据工程师或管理阶层,能实际要求脸书做什么应该都很困难。
但假如因为言论受到审查,就扬言要退出脸书,在短期内仍是不建议的做法。脸书目前是绝大多数台湾人使用的社群网站。脸书会让那么多人使用,绝对不是因为人们想在上面听你我的政治宣传,而更可能因为它是一个赛局均衡解:因为大家在上面,所以我也在上面。在十年前台湾人们开始从无名小站跳槽到脸书的时候,也只是因为它很好用,上传照片方便、可以用演算法帮你找到其他失联的朋友,而且还帮你把大家的动态都整理到同一个版面上,让你不用每天逛几次几百个人的留言板或部落格。脸书之所以对社会运动与政治产生冲击,则是使用人数够多后自然产生的结果,而不是原因。
换言之,无论你是哪一派,在没有下一个全台湾人一起跳走的平台之前,脸书仍然是重要的公开信息传播管道,尤其对于各种小众的自媒体与新媒体来说更是如此。就算前两年大声嚷嚷脸书绿色恐怖的旺中集团们,现在也仍得将新闻连结透过脸书传递出去。这也是为什么中国有那么多民运人士,即使帐号不断被微博删除,他们还是想尽办法在同一个平台上开新的帐号来推动民主改革。毕竟观众就在这里。
不过,在文章的最后,我忽然想起了今年满88岁的哈伯玛斯。哈伯玛斯认为人们需要努力营造出一个公共领域,在这领域里面人们意见交换,最后形成民意来要求政府施政。这个公共领域从古早的贵族沙龙、私人办小众的报纸,到报纸普及、形成大众媒体。但随着资本主义进入之后,公共领域的媒介──报纸与电视台──就受到资本主义的影响,需要有房地产广告所以不敢骂房地产、需要政治人物的广告所以不敢骂政治人物。脸书这样的社群网站,成本低廉,人人都可以发文给众人看,不再像沙龙要邀请函、不再像报纸电视有编辑过滤。但这样是更接近哈伯玛斯的公共领域的理想呢?公共领域本身该会是一个言论管理的目标吗?还是让形成民意共识更为困难呢?而言论自由、社群检举,以及形塑公共领域之间,有没有办法形成一个平衡呢?在这个国家主权还在争议中,以及彼岸正在废除任期限制的民主之岛来说,这些都将会是日发重要的问题。而台湾的表现与应对,某种程度也将预示着言论自由与民主能有多大的韧性。
(王宏恩,杜克大学政治所博士候选人、菜市场政治学共同发起人、前台大学生代表、前PTT-NTU版版主)
從人性的角度講,既然公司比你有更多的科技和更多的力量,他們一定會用。獲得更多的資源和力量從千年前就是被刻在人類的基因裡面的。【大數據】也不是什麼新詞彙了,既然大家都會去註冊臉書和其他人連結,那麼臉書自然會有更多的空間來修正自己的算法。至於拿你的數據做什麼,那你也不知道了–因為這是人家的商業機密。這個年代不被記錄已經是不可能了,從各類智慧家居到你每一次網路叫車,你的每一絲信息都在被互聯網公司的爬蟲默默關注。
從一個計算機學生的角度來說最好的辦法就是少用甚至不用這些互聯網服務,雖然日子會麻煩不少也不至過不下去。於我而言,我就在盡量少用或不用支付寶或者微信。只要允許,微信紅包和支付寶紅包我都會拿來購買一些本身就需要實名認證(比如中國的火車票)或者乾脆提現來刷卡。Alexa這類直接送監視到家的服務自然不可能使用。但我認為這還不夠,不久的將來當政府大規模鋪開這類產品的時候民眾根本無力反抗。我們唯一能做的就是在這之前利用體制把大數據透明公開,等到他們真的鋪開使用的時候我們就無力回天了。
首先,平台的運作規則需要透明化;其次,平台上的信息管理權應在用戶,而不是平台,平台只能去爲用戶自己管理信息提供技術支持。
我觉得没必要在确定能够“矫枉”之前,就先恐慌起“过正”来。
根据“个人尊严值”来调节不同声音的大小可能会助长弱者的受害者心态和他人无理性的同情心。会不会使得此时的弱者摇身一变成为优越者呢?