日報

人工智能打擊網絡語言暴力,「謾罵黨」的末日即將來臨?

端傳媒記者 紀小城 綜合報導

刊登於 2017-03-29

在線討論已成為人們互聯網經驗的一部分。令人遺憾的是,在人們暢所欲言的同時,很多包含個人攻擊的內容也大行其道。根據美國民調機構皮尤研究中心(Pew Research Center)2014年的一份調查報告,73%的成人網民見到過網上言論攻擊行為,40%的人更曾親身經歷。許多網絡平台努力嘗試通過人工干預來限制語言暴力,然而面對億萬名發言者,平台需要出動大量人力,卻仍應接不暇。

如何用ai對付網絡人身攻擊。
機器學習技術被用來對付網絡人身攻擊。

隨着人工智能(AI)興起,一些平台開始尋求更加高效的技術手段來解決這一難題。英文維基百科(Wikipedia)就與 Google 聯手,開發了一套機器學習算法,來找出包含侮辱性的言論。

根據研究論文顯示,研究者首先收集由10人選出的10萬條侮辱性評論,訓練算法明確人身攻擊的語言方式。算法不僅需要區分出直接人身攻擊(如「你是混蛋」)、第三方人身攻擊(如「張三是混蛋」)和間接人身攻擊(如「張三說李四是混蛋」),還要分辨出哪些是「謾罵黨」,哪些是被對方謾罵激怒後開始反擊。通過這套算法,研究者分析了維基百科2004至2015年間頁面文章的6300萬條評論,判定哪些留言包含語言暴力。

研究分析發現,近80%的人身攻擊來自9000多名用戶,每人的攻擊性評論不超過5條,往往是被激怒後忘形反擊;另有34名用戶承包了9%的攻擊性評論,每人超過20條,他們屬於網絡中的「謾罵黨」,以挑釁、宣洩為樂。因此,雖然大量攻擊性言論散布在低頻攻擊者中,但若有針對性地限制高頻攻擊者,也會令狀況大為改善。

對於在線交流而言,很少有比侮辱、威脅、騷擾的語言毒害更大的。我們正在研究如何令電腦學會理解大規模侮辱性語言的細微差別和語境。如果成功,可以幫助發言者和版主改進網絡平台的評論內容,增進網上的思想交流。

Conversation AI 項目介紹

維基百科的這一研究項目名為 Detox(脱毒),是 Conversation AI 項目的一部分,來自 Google 母公司 Alphbet 旗下的科技孵化公司 Jigsaw。論文的3名作者中,除了維基百科的數據科學家 Ellery Wulczyn,另外兩人 Nithum Thain 和 Lucas Dixon 均來自 Jigsaw。

Jigsaw 的前身是2011年由 Jared Cohen 與時任 Google CEO 的 Eric Schmidt 共同發起的智庫 Google Ideas。2016年2月 Google Ideas 擴展為 Jigsaw 後,Schmidt 在 Medium 網誌上宣稱,Jigsaw 的使命是「使用技術來解決最棘手的地緣政治問題,從打擊暴力極端主義到遏制在線審查,減輕由數字攻擊引起的威脅」。

Conversation AI 只是 Jigsaw 眾多計劃中的一個。Jigsaw 製作的第一款產品是翻牆工具 uProxy,目前已在超過100個國家發行。通過連接防火牆外的朋友的電腦,uProxy 可以幫助面臨互聯網審查的用戶翻出防火牆。

Uproxy。
翻牆工具 uProxy。

Jigsaw 的另一款產品是 Chrome 插件「密碼警示」(Password Alert),該插件不僅能偵測假冒的 Google 登入頁面並彈出提醒,也會在異地登錄時向用戶傳送通知,以防賬戶被盜。

2016年4月,Jigsaw 還曾推出一款叫做 Montage 的軟件,通過分析 YouTube 影片,幫助戰地記者和非營利機構追蹤發生衝突的地區和蒐集侵犯人權的證據。另一款名叫 Project Shield 的免費軟件則能幫助防範針對媒體、選舉監督網站和人權組織的網絡攻擊。

機器學習

Machine Learning,是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、計算複雜性理論等多門學科。機器學習理論主要是設計和分析一些讓計算機可以自動「學習」的算法。機器學習算法是一類從數據中自動分析獲得規律,並利用規律對未知數據進行預測的算法。因為學習算法中涉及大量統計學理論,機器學習與推斷統計學聯繫尤為密切,也被稱為統計學習理論。機器學習已廣泛應用於數據挖掘、計算機視覺、自然語言處理、生物特徵識別、搜尋引擎、醫學診斷、檢測信用卡欺詐、證券市場分析、DNA 序列測序、語音和手寫識別、戰略遊戲和機械人等領域。(資料來自維基百科,百科內容以 CC BY-SA 3.0 授權)

來源:IBTimesMotherboardMediumWired

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀