國際前線

美國一名審查員向抖音提告,稱持續觀看不安內容致患上嚴重心理創傷,你如何看?

每天須過濾色情、極端主義、血腥暴力的影片,內容審查員正面對何種心理壓力?


2019年10月18日中國浙江,市民在2019智能博覽會上參觀抖音(Tiktok)展位。 攝:Costfoto / Barcroft Media via Getty Images
2019年10月18日中國浙江,市民在2019智能博覽會上參觀抖音(Tiktok)展位。 攝:Costfoto / Barcroft Media via Getty Images

每天須觀看各種色情、極端主義、血腥暴力的影片,內容審查員正面對如何的心理創傷?

為免兒童色情、恐怖主義、極端組織言論於社交網站出現,你如何看內容審查員角色的必要性?

有心理健康專家認為,理解工作的心理壓力並不能有效解決罹患心理疾病的風險,你如何看?

美國女子弗蕾澤(Candie Frazier)12月23日在加州地方法院對抖音提出聯邦訴訟,宣稱自己之前是抖音的審查員,工作內容就是每天必須審查和過濾色情、極端主義、血腥暴力的影片。惟工時一度長達12小時、持續觀看有關性侵、斬首、自盡等暴力血腥影片的工作,導致她嚴重心理創傷,包括患上焦慮、抑鬱和創傷症候群。

表示工作時需要連續看3到10條影片,在每日頭4小時只可以休息15分鐘,而抖音方面嚴格監管其工作表現,如果休息時間超過許可限制就會予以懲罰,因此她在嚴格的工作環境下出現了嚴重的心理創傷,包括抑鬱、焦慮和創傷後症候群,晚上無法入睡,就算睡着也只有惡夢。

甚麼是內容審查員?

社交平台上都有一定的內容審查,而除了自動篩選外,不少內容仍然需要人手檢查。在早期,網路還是一片分散的網路,連接數十億個網站和社群的人們,隨著網路越來越「公司化」,例如Facebook,YouTube,Instagram等等,內容審核員開始出現,用來監管它們各自的網站。所以簡單來說,內容審核員就是將網上涉嫌違規的內容刪掉的人。

在一部《網路清道夫》的紀錄片中,Facebook的內容審核員一天的處理指標是25000個。而這些內容中遍地都是兒童色情、恐怖主義、自殘虐殺、極端組織言論。他們的職責,是把最骯髒和噁心的資訊阻隔在我們可以看到的網絡世界之外。

色情、血腥、暴力與心理創傷

除了要處理大量的內容,內容本身更會導致內容審查員有心理創傷。受第三方外聘的Facebook內容審查員Sarah表示,中介人都會一早清楚講述工作的內容,沒有半點隱瞞,包括他們將會看到什麼圖片、影片,並提及「大部分都是色情內容」。Sarah憶述,她最記得一則兒童兒情內容,「兩個小孩,男的大約12歲,女的8至9歲,他們面對面站著。他們沒有穿褲子,然後互相撫摸。背後應該有個大人在告訴他們要做什麼。真的很嘔心,因為很真實。」

除了色情內容,還有血腥、暴力的帖文,「有很多暴力的影像,其中有一個女人的頭被砍了。她半個身軀在地上,剩下的一半在椅子上。」雖然中介人早已警告他們將會看到的內容,但Sarah覺得當你真的看到時,那是完全不一樣的感覺,「有些同事覺得他們可以應付到,但最後還是不能。」

說到對員工的輔導,她記得沒有聽過任何的輔導服務,「可能現在有,但我不肯定。」她說,如果現在有這些服務的話,她很可能會參與。

衛報早前也報導,有不願透露姓名的審查員表示,這份工作「低薪、不被重視」,每天都有員工需要去看心理醫生,有些人甚至壓力大到無法入睡,或是做惡夢,也有內容審查員在嚴格的工作環境下患上了嚴重的心理創傷,包括抑鬱、焦慮和創傷後症候群。

風險理解通知書

知名管理諮詢公司埃森哲(Accenture)承包了Facebook和YouTube等社群網站的審查工作,協助刪除平台上所有不適當的內容;這些審查員一日要審查上百則令人不安、反感的內容,因此維護內容審查員的身心靈健康工作,被埃森哲公司認為是當務之急。

埃森哲起先只提供新入職的審查員這份通知,但據該公司最新聲明,目前已經補發給歐洲與美國全數在職審查員。通知上寫道,「我知道我將要審查(reviewing)的內容可能會令人不安,且審查這些內容可能會影響我的心理健康,甚至可能導致PTSD」。通知寫明,將提供內容審查員求助熱線和健康教練等支持服務,但它也註明,提供支持服務者並非醫療專業,且「無法診斷、治療心理疾病」。

而心理健康專家也認為,理解工作的心理壓力其實並不能有效的解決罹患心理疾病的風險。

你認為有甚麼方法可以緩解內容審查員面對的種種壓力?

文:端傳媒實習記者葉泳心

國際前線