廣場

小端網絡觀察:一個「怒」=五個讃?!Facebook曾用表情符號放大仇恨?

這幾年假新聞,仇恨及爭議內容在臉書上氾濫,傷害或許已經造成。

2018年4月26日,倫敦英國議會委員會聽證會場地外﹐有戴著Facebook 創辦人 Mark Elliot Zuckerberg 的面具及憤怒表情面具的示威者。

2018年4月26日,倫敦英國議會委員會聽證會場地外﹐有戴著Facebook 創辦人 Mark Elliot Zuckerberg 的面具及憤怒表情面具的示威者。攝:Simon Dawson/Bloomberg via Getty Images

端傳媒實習記者 鄭又禎

刊登於 2021-10-27

#Facebook#小端網絡觀察

「小端網絡觀察」主要處理網絡熱議事件,簡析事件原因、始末、經過及相關的網友反應,主要發表於端傳媒臉書平台,為端傳媒社媒組特色欄目。

你在Facebook(臉書)上喜歡用表情符號嗎?華盛頓郵報昨(26)日刊出報導《Five points for anger, one for a ‘like’: How Facebook’s formula fostered rage and misinformation》,揭露臉書從2017年開始以演算法加強推送讓使用者更多的使用「表情符號」,而受眾越使用怒(angry)來回覆貼文,越會被演算法推送更多情緒化甚至令人憤怒的內容,而華郵的報導更指出,你按一個「怒」的影響力相當於一個「讃(like)」的五倍。這項爭議措施在臉書實行多年,直到2020年才得到較大幅度修正。

這也是繼日前臉書前員工法蘭西斯・豪根(Frances Haugen)在美國國會聽證會中以大量文件指控臉書為高流量用戶放鬆事實查核、高層明知Instagram對青少女身心有害卻不採取任何改善行動、在公眾利益與集團獲利之間,選擇極大化集團獲利等多項問題之後,再有報導揭露臉書爭議。

到底臉書如何讓你的頁面充滿憤怒內容的呢?

在臉書「按個怒」到底意味著什麼?

你點讚,點愛心或者點怒,你的每次貼文互動都會決定刷新臉書時動態消息將顯示的內容。根據臉書內部文件揭示,臉書有超過萬種方式衡量貼文顯示順序的標準,其中一些更細微到用戶難以察覺,例如一則貼文會產生多少長篇的留言、影片是直播的還是事先錄製的、留言是純文字還是用卡通人物貼圖,甚至還會計算一則貼文會佔用電腦多少記憶體,和使用者的網路訊號強弱等等。

臉書在五年前推出除了讚以外的五種表情符號反應,包含「愛心」、「哈哈」、「哇」、「哭泣」、「怒」等。華郵引述文件內容指出,從2017年開始,臉書演算法為因應平台用戶在發布貼文和留言互動上的下滑,將使用者按下表情符號的反饋,權重設定為單純按讚的五倍,原因在於這類激出更多情緒反應的貼文,讓使用者的參與度更高——而這點,也正是臉書的利基所在。

值得注意的是,華郵報導更指出,當表情符號作為一種貼文「加分」手段,碰上了旨在限制有害內容的「扣分」指標時,兩者碰撞可能使問題變得複雜。臉書流出的內部文件顯示,一篇貼文平均可獲得幾百分,但該機制並未限制單篇文章的得分上限。這意味著,當臉書演算法認為一篇貼文「不好」,此機制確實可透過演算法將其分數減半以減少曝光,但當一則貼文通過表情符號「加分」機制累積到數十億分,即使內容有害導致扣分使分數折半,該貼文的分數可能還是高到會被推到用戶動態消息的首位。

文件亦顯示,臉書在推廣新功能時,會將以新功能發布的貼文,透過演算法加強曝光,以鼓勵用戶多加使用。如此一來,便可以確保新功能為大家所知,並被廣為使用,而在用戶端,那些希望得到更高曝光度的發文者,例如公眾帳戶與政治人物,也會發現特定類型的貼文傳播效果更好。

臉書也曾為促進用戶使用直播功能,演算法一度將其權重拉高到600倍,這使得低品質的影片得以快速得到關注並被廣為散播。而臉書的直播影片在政治性活動中也有相當重要的地位,包含去年在美國黑人喬治・佛洛依德(George Floyd)遭殺害之後的一系列種族正義抗爭,與今年1月6日的美國國會山莊暴動——在該次事件之後,臉書緊急啟動先前一度取消的安全措施,讓直播影片的權重由600降低至60。

爭議機制在臉書內部爭辯已久

一名匿名臉書員工曾在內部文件中指出,透過表情符號加強特定貼文推送,恐怕會讓爭議內容得到更高曝光度,這項預警後來也成為現實。臉書在2019年發現,獲得越多「怒」的貼文,當中更有可能包含大量劣質、錯誤甚至有害信息。

臉書執行長馬克.扎克伯格(Mark Zuckerberg)曾鼓勵用戶對公開貼文中的留言使用「怒」,以表達他們並不喜歡這些內容——但按當時的演算法,你越按「怒」,你的臉書反而更常顯示這些內容。

臉書在2018年,第一次下調「怒」的權重,將各個表情符號的權重從此前的5個讚調整為4個讚,但因表情符號被使用的頻率不一,這樣的調整並未完全解決問題。到2019年7月,有員工提議將部分表情符號的權重降為一個讚,或不列入計算,因為「怒」反應與「哇」、「哈哈」等反饋,更常被使用在有毒內容和錯假訊息上。在當年稍晚的另一份提議中,則提及要將「大心」和「哭泣」等值於四個讚,因為他們「比較安全」,有員工甚至提議直接將整個表情符號的機制移除,但這些加權和功能在內部激辯之後,仍未做出太大的改變。

直到2020年,有研究指出臉書用戶並不喜歡他們的貼文收到「怒」,不論是來自朋友或陌生人。臉書將所有表情符號的加權降低至相當於1.5個讚。同年九月,臉書終於將「怒」的權重將至零,將其移出加權計算的因素之外,同時將「大心」和「哭泣」等值於兩個讚。

然而這幾年假新聞,仇恨及爭議內容在臉書上氾濫,傷害或許已經造成。

「臉書」正在放大仇恨?

本週一(10/25)豪根前往英國國會,在因應《網路安全法》草案(Draft Online Safety Bill)成立的聯合委員會作證時,再次強調臉書「毫無疑問地放大了仇恨」,且「不願意為了安全,對自己的營收做出任何一點讓步」。

除了華盛頓郵報的報導外,美聯社(Associated Press)、紐約時報(The New York Times)、大西洋月刊(The Atlantics)等多家美國媒體,亦有使用豪根於美國國會作證當時公開的大量「臉書文件」(The Facebook Papers)進行報導。

其中美聯社的報導提到,蘋果在兩年前,曾因Facebook和Instagram平台有涉及買賣中東女性傭人的疑慮,威脅從App Store移除兩軟體。另外一篇美聯社報導亦指出,由於阿拉伯語在「標準阿拉伯語」之外,各地方言仍存在用字,書寫的不同,這些因素都讓不同地區,作為臉書第三大語言群體的阿拉伯語使用者,不一定能辨識其他地區使用的阿語。因此,不論是由演算法自動審查,或是由懂阿語的內容審查員進行人工排查,都未能精確偵測、排除真正有問題的內容,而這使得臉書在2011年阿拉伯之春時快速傳播了抗爭資訊,但近幾年卻成為多個國家的仇恨內容散播的源頭。

在緬甸,「穆斯林」、「伊斯蘭教」等用詞,經常與種族、宗教仇恨辭令與相關錯假訊息共同出現,而臉書的演算法缺陷,使得針對信仰伊斯蘭教的羅興亞人的仇恨言論未能被有效阻止,反而被廣為推送;巴勒斯坦記者和異議人士談論巴勒斯坦處境時,也常因為被系統判定為「違反社群守則」,而令自己的臉書帳戶遭到永久刪除。

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀