2018年4月24日,Facebook CEO扎克伯格在自己的页面公告了Facebook全新的社群守则,并宣布要进一步推动下架文章的复核机制。扎克伯格特别提及,这次的社群守则更新,主要是更清楚地定义各种允许以及不允许的言论类型,其目的在于兼顾言论自由与安全。
笔者在一个月前曾针对Facebook的言论审查与社群守则进行研究。跟一个月前的版本相比,这个新的社群守则到底多说了什么,又有什么没有说的?
Facebook最重视的问题是什么?
首先,从社群守则的顺序以及扎克伯格的发言中,可以发现Facebook最重视的问题,是Facebook上的言论是否会进一步连结到现实生活中的暴力。暴力、暴力计划,乃至于潜在执行暴力的组织,是社群守则第一条要移除的目标。那么,日前在台湾造成争议的泼漆事件呢?Facebook强调其判别标准在于是否继续鼓吹犯罪造成模仿。光从事件本身来看,Facebook规定的下架范围也包括了破坏公物,甚至连教人怎么模仿也不行。然而,Facebook说假如内容是“让公众辩论其抗议犯罪活动的正当性”,则是可以的。在这样的标准下,泼漆事件声明里说的“今天的行动只是开端,觉醒的人民,以实际的行动表达对一切威权遗绪的愤怒,‘破坏圣像’的行动,不会停止”,因为可能带有鼓吹、继续活动的成分,就极有可能还是会在被下架删除的范围内。相较之下,假如只是针对赞成或反对泼漆事件的讨论,也许就比较不会被下架。
第二,在笔者上篇文章花费最多心力讨论的仇恨言论(Hate Speech)问题上,Facebook也明确地列举出其欲特别保护的族群或判准:“人种、族裔、出生、宗教、性倾向、生理性别、社会性别、性别认同、肢体不便,以及移民 ”。基于上述范围内的言论(Facebook特别提到了仅限上述范围),企图威胁特定特质的个人或群体,或是把这些特定特质的人比拟作其他非人的动物或刻意贬低的话(视发文内的观众的文化而定),都是会被下架的。在这个新规定下,“中国猪”、“台独狗”、“母猪”从文字上来看都会被审查。
第三,新的社群守则里也明白地指出,会倚赖网友回报数据来放入机器学习演算法中。在对抗假新闻的政策中,Facebook特别提到会使用包含网友回报在内的多种来源,放入机器学习演算法,来决定哪些新闻是假新闻。在前一版的社群守则中,并没有这样明白地指出会依靠网友回报以及用机器学习演算法来定。
第四,Facebook也回应了日前的“解放乳头”运动(Free the nipple),Facebook不只提到了抗议,也特别说新的政策是具有更多详细细节的。在新的规定中,Facebook明确地限制了裸露性器与整个屁股。而对于女性胸部方面,Facebook原则禁止,但假如是哺乳、健康教学用途、生产、以及为了抗议的话除外。除此之外,值得注意的是Facebook也禁止了使用成人玩具,或是性交的副产物(byproduct)的照片,也禁止刺激乳头的照片(而且不限男女)。
Facebook回避了的是……
Facebook追求言论自由跟安全的平衡,但这安全的定义似乎仅限于民众之间,而非民众与公权力之间。
从上面这些改变来看,日前Facebook社群的抗议、串联,乃至于国会的听证,确实是有产生一些效果的。然而,在这些文字规定之下,Facebook又有哪些没有说的事呢?
第一,在整个社群守则里,没有看到“政治”二字。在扎克伯格参加国会听证时,德州参议员Ted Cruz特别当面质询Facebook,是否会因为政治立场不同而下架特定网站,并且有提到一些保守派网站被下架的情况。然而,在这篇新的社群守则里,政治团体或政治倾向并不是一个被保护的对象。
我可以理解Facebook这样做的想法,但这很可能仍有疏漏。第一,政治团体本来就是公开结社、为了争取更多权力而存在的团体,其行为本来也会受到大众检验。第二,政治团体本来就是处理各种议题、让各种民意汇集的场所。在Facebook的规定中,特别有规范会下架仇恨团体(Hate Organization)或对其支持的言论,其定义为“具有肢体攻击特定个人或群体的意识形态”,例如俄罗斯以暴力排外著名的光头党。另外,Facebook也如上述所云,保障了“人种、族裔、出生、宗教、性倾向、生理性别、社会性别、性别认同、肢体不便,以及移民”。
可是在现实生活中,人种、族裔、性别等,这些社会分隔(social cleavage)往往都是让各国内各政党盘据的主要地盘分界(甚至,年龄也是)。假如今天的政治与政党是跟这些界线紧密相连,那对这些议题的审查或保护很容易就往上爬到政治领域了。当特朗普骂了“屎坑国家”、移民犯罪,他的言论该被下架吗?另外,媒体报导又会不会因为演算法而被下架?
第二,假如Facebook直接在社群守则中弃守政治这个领域,Facebook就更不可能进一步规范其他更为敏感或基进的政治活动了,而在这里也看到Facebook看似中立带来的问题。独立运动、分离主义运动,乃至于社会上实际存在的因为种族、国界而产生的各种问题,乃是各国政治极化的原因。在无论哪个国家,追求独立跟追求革命(就算是宁静革命或追求换掉现任独裁者)都一定是犯罪,但Facebook是否要将这些通常有组织性的犯罪内容下架呢?触犯反分裂法算不算是犯罪呢?面对外国入侵,国家存亡之秋,难道不能在言语上有比较激动的表示吗?在茉莉花革命时,Facebook有刻意保留一些比较血腥的战争冲突片段,但这样的标准是浮动的,也是政治的。
在Facebook提供的参考资料中,有它们的研究部落格Hard Question Blog,里面特别有提到乌克兰的例子。在乌克兰里,有一群乌克兰认同者希望可以脱离俄罗斯的经济控制,尽快向欧美靠拢。但在同时,也有一大群俄罗斯认同者,不只讲俄罗斯语,更时时刻刻希望能跟俄罗斯统一。这两群人在Facebook上自然是很爱互相对骂、互相侮辱,而相互攻击也在2014年克里米亚战争时达到最高峰。那Facebook的决定呢?Facebook决定把那些与特定的侮辱字眼相关的内容都拿掉,无论哪一方。Facebook追求言论自由跟安全的平衡,但这安全的定义似乎仅限于民众之间,而非民众与公权力之间。
另外,假如在某国家内,特定族裔或性别因为法律或历史因素,而拥有极度不公的权利或财富分配,那针对这些“的确是因为族裔、性别而引起的不公”的讨论或抗议,又算不算是对特定族群的仇恨言论呢?Facebook在政策上,的确已经承认了笔者在上一篇文所讨论的“言论具有重量”这个假设,也因此对暴力言论以及仇恨言论都开罚。但对于另一个假设──不同群体平均上有不同的名誉值,有些群体较能抵抗这些暴力言论,而某些则不──则较少着墨。社群守则里唯一没有包括全体的只有肢体不便者,其他“人种、族裔、出生、宗教、性倾向、生理性别、社会性别、性别认同”都看似同时保障了现有社会的强势跟弱势。
换言之,Facebook的这些规范,更像是希望能够静态地维持政治现状。
第三,也是个比较复杂的议题:上述某些会被下架的言论,与不会被下架的言论,假如混着出现时该怎么办?在日前泼漆案的公告中,大概只有一两句是说会继续做,其他九成都是在讲这个行动的缘由与正当性。那这样到底Facebook该下架还是不该下架呢?下架部分好像也是怪怪的,那Facebook能不能够跟图片保护的方式一样,假如遇到有这些复合型的言论,直接先打个马赛克加警语说“内有煽动犯罪文字不代表Facebook立场”就好了呢?一定要立刻下架吗?
最后,有关之前讨论甚多的同温层效应,Facebook似乎也没有着墨。假如Facebook在判别假新闻、判别仇恨言论,甚至判别政治议题上,都很仰赖社群的检举制度的话,那同温层效应只会让这些数据更为偏差,机器学习更会进一步加大这些问题。举例来说,假如台湾泛蓝跟泛绿都只在自己同温层内看抹黑对方的新闻,看得很高兴,以为这就是真相而无人检举,而一些真的报导事实的优良新闻,却因为可能不够偏袒,或是同时批评蓝绿两方,而被检举为假新闻被下架的话,那Facebook的这个机制,反而就只会更鼓励假新闻流窜了。
真的要检验假新闻与否,更重要的是让不同倾向的人都同时评价同一篇新闻,才有可能取得比较好的测量,但这也同时意味着,Facebook要把可能与使用者政治倾向不合的文章推给他们看,但此举也会降低Facebook的黏着时间(但黏着时间跟贡献给Facebook的收益又是否完全线性的正相关,使用者无从得知)。
总结而论,我认为扎克伯格把社群守则写得更清楚是值得鼓励的,而他自己也提到这些社群守则还在演化。从一些方向来看,这社群守则确实也是有呼应(许多自由派)社群的心声而有所改进。但在一些更为基进的议题上,尤其是政治议题上,Facebook还是处于一个比较被动的位置,也并没有对于人权、民主等议题有更成文的支持。这些是值得继续关注的地方。
(王宏恩,杜克大学政治所博士候选人、菜市场政治学共同发起人、前台大学生代表、前PTT-NTU版版主)
中心化的平台不值得相信。
Facebook 还是没有,或者不愿搞清重点。这次丑闻在于某些政治组织有规模地伪装成普通人影响他人的政治决定。需要打击的是有组织行为。而Facebook这里还是对普通人的bullying, name calling 开刀。