「這像是第一場互聯網原生(internet-native)的大規模槍擊案」——紐西蘭基督城的恐怖襲擊發生後,《紐約時報》的專欄作家Kevin Roose這樣評價。
2001年9月11日,全球各地的人們從電視上目睹了位於資本主義心臟地帶的紐約世貿中心雙子塔的倒塌,看到絕望的人們從高樓上墜落。2019年3月15日,槍聲從世外桃源般的紐西蘭基督城傳來。這一次,人們透過互聯網和社交網絡,目睹了一場血腥的大屠殺,看到同樣絕望的人們倒在血泊中。
這場恐怖襲擊從頭到尾都是一場設計好的了「病毒式傳播」——在Twitter和在線社區8chan上預告,在Facebook上如同射擊遊戲一般直播,槍手在開始屠殺前甚至借用了網絡流行語,讓「哥們」(lads)訂閲知名YouTube博主PewDiePie。很快,直播視頻被網友們以各種目的保存、並重新上傳到各大平台,伴隨着充滿着彩蛋和「表情包」(meme)的宣言迅速擴散,其傳播速度遠遠超過了社交媒體管理方的反應速度。
「這像是第一場互聯網原生(internet-native)的大規模槍擊案。」
根據Facebook的官方聲明,儘管最初恐怖襲擊的直播觀看量僅有200,加上回播也不過4000次,但在接下來的24小時內,總共有150萬條槍擊案直播的視頻被重新上傳到Facebook上,其中120萬條在上傳時即被攔截,但仍有30萬條視頻成功發布,事後才被刪除。同樣的現象也發生在其它平台上,在恐怖襲擊發生後相當長的一段時間內,普通用戶只要通過簡單搜索,就可以在網絡上找到這段血腥視頻。
科技公司成為眾矢之的
在這次恐怖襲擊中,科技平台的確存在諸多應對不力的問題,比如Facebook並沒有在第一時間發現恐怖襲擊的直播,而是依賴於用戶舉報,並且等到紐西蘭警方聯繫後才開始加速處理。在YouTube上,大量經過編輯重新上傳的視頻在恐襲發生24小時後依然沒有被刪除。在Reddit上,一個名叫「看人怎麼死的」(/r/watchpeopledie )的板塊成為了視頻擴散的重要環節,一位版主明確表示,除非有人審查,否則這段視頻不會被刪除,因為「你應該自己決定是否要看到未經過濾的事實」(該版塊在恐襲過後一天左右才被Reddit官方封禁)。
於是,在該事件中手忙腳亂的科技公司們,自然就成為了人們批評的對象。《衞報》的科技編輯Alex Hern表示:「我不明白為什麼YouTube和Facebook不能僱一個人——就一個人——坐在那裏搜索『紐西蘭恐怖襲擊』,然後刪除不斷出現在這個關鍵詞下明顯的重複上傳。」《華盛頓郵報》的媒體專欄作家Margaret Sullivan也呼籲科技平台嚴肅對待這一問題,承擔起「編輯判斷」(Editorial judgement)的責任。
如今,傳統媒體已經逐步喪失了「守門人」的權力,而科技平台看上去既沒有足夠意願、也沒有足夠能力接過這項權力。
媒體人的不滿完全可以理解,試想如果是恐怖分子將自己進行恐怖襲擊的錄像帶和信件寄到報社,很難想像有編輯會決定將其內容不經刪減和編輯而完整刊發。但如今,傳統媒體已經逐步喪失了「守門人」的權力,而科技平台看上去既沒有足夠意願、也沒有足夠能力接過這項權力。
人工智能難堪大任
然而,解決這一問題,真的就是「多僱幾個人」就可以迎刃而解嗎?
Facebook事後在聲明中回應了質疑,解釋了為何近年來在內容審核上越來越倚重的人工智能沒有起到作用——人工智能系統需要大量的「訓練數據」,因此較為常見的裸體圖像、恐怖主義宣傳、暴力畫面可以迅速通過人工智能進行識別,但對於這次更為罕見的「直播槍擊」,人工智能沒有太多用武之地。
另外,儘管機器能夠更為精準地識別出原始的視頻片段,但有大量用戶通過轉錄、剪輯、調色等手段重新上傳了視頻,增大了機器審查的難度。而中國讀者可能會對這樣的經歷有深刻感受,每當網絡上有內容被刪帖,用戶們常常可以通過截圖、將圖像倒置或扭曲等方法躲過審查——儘管往往只是暫時的。
較為常見的裸體圖像、恐怖主義宣傳、暴力畫面可以迅速通過人工智能進行識別,但對於這次更為罕見的「直播槍擊」,人工智能沒有太多用武之地。
根據科技媒體The Verge的報導,YouTube內部已經建立起了一套處理色情內容和恐怖主義相關內容的機制,這套系統和探測侵犯版權內容的系統相似,對於未經編輯重新上傳的內容可以在第一時間攔截,該系統同樣能識別出經過剪輯的片段,系統會將這些內容轉交給人工審核員處理,審核人員不僅包括平台僱傭的第三方審核人員,也包括YouTube的全職員工。
但這套系統對於紐西蘭恐襲這樣的突發新聞事件處理起來並不簡單。在槍擊案發生後,除了部分用戶惡意傳播擴散視頻內容外,還有大量的媒體和記者出於報導目的,傳播了恐襲視頻片段和恐怖分子的宣言(「天空新聞」澳大利亞分台甚至選擇完整播出了直播片段)。因此,即便是同樣的視頻片段,在不同語境下也有不同意義,內容審核並非簡單的非黑即白。
人海戰術應對海量信息?
在過去幾年中,因為內容安全頻頻出現危機,各大科技平台已經迅速擴大了內容審核人員的規模。YouTube於2017年末宣布僱傭1萬人進行內容審核工作,Facebook到目前為止已經僱傭了1.5萬名內容審核員,這一數字比起2018年翻了一番。
耐人尋味的是,儘管運行邏輯不同,但中國大陸的互聯網平台也採取了相同手段應對類似挑戰:在多次被官媒點名批評並被政府要求整改後,「今日頭條」去年宣布將現有6000人的運營審核隊伍擴大到1萬人;而「快手」在被廣電總局約談後,也決定大幅擴招內容審核團隊,且黨員團員優先;第三方審核行業已經發展成為一個利潤豐厚的行業。
儘管運行邏輯不同,但歐美國家和中國大陸的互聯網平台採取了相同手段應對類似挑戰。
但和每天只需要處理有限數量新聞的編輯不同,科技平台內容的數量和規模遠遠超出人工處理的能力。Facebook聲明中提及,在此次紐西蘭恐襲事件中移除了至少150萬條視頻;儘管YouTube沒有提供關於此次事件的數據,但根據其CEO蘇珊·沃西基(Susan Wojcicki)此前透露的數據,YouTube每分鐘上傳的視頻時長達到500小時,在2018年第三季度移除了800萬條視頻,其中很大一部分視頻在沒有任何播放量時就已經被移除。這樣的天文數字,是傳統媒體無法想像的。
科技巨頭並非全能
社交媒體平台的內容審核問題,並非簡單的「多僱點人」的問題。面對海量信息,科技公司擁有的控制權,要比想像中小很多。
在過去很長一段時間內,科技平台的確沒有承擔起足夠的內容審核責任。根據1996年美國通過的《通信禮儀法》230條,鼓勵網站從善意原則出發移除淫穢、暴力、騷擾等內容,但網站可以免於為用戶發布的信息承擔責任。按照這一條款,互聯網平台從法律上並不需要為平台上的內容承擔責任。
但這並不意味着科技公司就願意對平台上的內容採取放任不管的態度。在2016年美國大選假新聞風波後,輿論、民眾和政府都給了科技公司越來越大的壓力,互聯網平台的態度已經有了大幅轉變,開始在內容審核上承擔起了更大責任。Facebook的CEO馬克·朱克伯格(祖克柏)2018年出席國會聽證會時,明確表示Facebook需要為平台上的內容承擔責任;而Google的CEO 桑德爾·皮查(Sundar Pichai)在出席國會聽證會時,也表示Google有責任提供準確的信息。
2016年美國大選假新聞風波後,輿論、民眾和政府都給了科技公司越來越大的壓力,互聯網平台的態度已經有了大幅轉變,開始在內容審核上承擔起了更大責任。
從商業角度考慮,科技公司也有動機減少平台上出現的不良信息。對於主要收入來自廣告費用的社交媒體平台來說,平台上如果充滿了不良信息,會導致廣告商的撤離——就在紐西蘭恐襲發生前不久,YouTube已經因為內容審核問題陷入一場風波,有人曝出YouTube上有用戶利用兒童視頻開展色情活動,迪士尼、雀巢、麥當勞等廣告大客戶因此宣布暫停在YouTube上投放廣告。
但另一方面,平台在內容審核時也必須保持慎重,避免因為「誤傷」招致「限制言論自由」的批評——此前Facebook曾將著名攝影作品「越戰女孩」判斷為兒童色情而刪除並封殺賬號,結果引來大量批評。哪怕是在已經建立起廣泛全面審查體系的中國,甚至是採取「先審後播」的極端方法,依然無法避免疏漏。
這一問題無法單單依賴人工解決,也無法僅僅依賴人工智能來解決。
內容審核的新挑戰
這一次紐西蘭恐怖襲擊,並不是平台第一次面臨內容審核上的挑戰。2017年,為了應對ISIS和其它恐怖組織利用社交媒體平台宣傳極端思想和招募成員,Facebook、Microsoft、Twitter和YouTube成立了「全球反恐互聯網論壇」(The Global Internet Forum to Counter Terrorism),各大科技公司通過這一組織分享數據,並且和聯合國等機構合作,共同應對恐怖主義在網絡上的威脅。
Google旗下的孵化器Jigsaw還開發出「重定向」(Redirect Methods)的方法,通過AdWords和YouTube推薦,向在網上搜索恐怖主義內容的孩子推薦針對性的內容,避免孩子受到恐怖主義的影響。根據BuzzFeed News的報導,各大科技公司採取的舉措的確在抑制ISIS的影響上起到了一定的效果,ISIS曾經在YouTube、Twitter等平台上的宣傳網絡幾乎完全消失,新出現在平台上的宣傳恐怖主義的視頻也會迅速被刪除。
和ISIS這類恐怖主義不同,如今的右翼極端主義組織形式更加去中心化,也更具有迷惑性。
但和ISIS這類恐怖主義不同,如今的右翼極端主義組織形式更加去中心化,也更具有迷惑性。互聯網政治研究者夕岸在《從反女權到新朋克,另類右翼運動如何發家?》中這樣評價「另類右翼」的鬆散聯盟:「他們既可以大肆散布歧視言論,又可以辯解說自己只是在捍衞言論自由和西方文明,他們既可以嚴肅地騷擾攻擊他人,又可以在爭議不利於自己的時候,謊稱一切只是為了『好玩』(Lulz——Lol的訛用版本,即從別人的痛苦中獲得快樂)。」
儘管各大社交媒體平台的的規則中都有針對煽動暴力、仇恨言論的規定,但相比ISIS,各大科技公司長期對於右翼極端主義往往採取容忍和無視的態度,直到近兩年才開始更加重視其影響,例如對於違反平台規則的美國陰謀論者Alex Jones和英國記者Milo Yiannopoulos進行封殺。
但人們對於右翼極端主義威脅的忽視不僅僅存在於社交網絡上,也存在於現實世界中——《紐約時報》2018年11月曾刊載文章,指出美國政府在過去20多年來一直忽視右翼極端主義的威脅,使得這股勢力不斷做大,發展到了現在無法控制的地步。這股勢力在全球範圍內的傳播和擴散,固然和互聯網以及社交網絡脱不開干係,但其根源則根植於社會和文化中,單單憑藉平台的內容審查無法解決。
作為一場「互聯網原生」的恐怖襲擊,紐西蘭槍擊案或許標誌着一個里程碑式的事件。我們不能寄希望於科技公司自覺承擔全部責任,畢竟後者不是慈善組織,實現利潤最大化、同時逃避承擔責任,幾乎是其本能反應。必要的政府監管、以及社會輿論的施壓因此不可或缺。在手工操作和人工智能青黃不接的轉折點上,要避免類似襲擊對互聯網生態和公共輿論的衝擊,如何就內容審核機制提出建設性改進方案,仍然是互聯網從業者不得不面對的難解謎題。
(華思睿,旅美媒體人)
熟悉的华思睿老师
@colinxu 很明显,传统新闻界一直都是这么做的,作为公共消息传播的守门人。现在的互联网媒介不过是到了该把这个责任担负起来的时候。
组团去找中国有关部门取经吧……
「你應該自己決定是否要看到未經過濾的事實」
我不能接受站在批评政府的角度上说我们要反对内容审查,然后又站在反恐的角度上说我们让公司在内容审查上承担更多责任