深度 人工智能

徐子軒:AI預測犯罪,誰會成為人工智能的眼中釘?

使用AI預測背後,是否會產生一些AI與人類無法處理的問題?


事實上,在我們的生活裏,已經充滿著監視器與人臉辨識系統,警務機關可藉由AI篩選「危險人物」。   攝:Kiyoshi Ota/Bloomberg via Getty Images
事實上,在我們的生活裏,已經充滿著監視器與人臉辨識系統,警務機關可藉由AI篩選「危險人物」。 攝:Kiyoshi Ota/Bloomberg via Getty Images

十多年前,好萊塢名導史匹堡(史匹柏,斯皮爾伯格)翻拍了1950年代的科幻小說,電影叫做《關鍵報告》(Minority Report,港譯「未來報告」,中國大陸譯「少數派報告」),內容是描述未來某國政府利用變異人類的超能力,預測潛在犯罪(pre-crime),以便司法系統提前阻止。因此,這樣的社會沒有重大罪行,只有充滿「潛在罪犯」的拘留營,一切看似安和樂利。

這類電影寓言凸顯長久以來,人類雖想預測犯罪,卻弄巧成拙的荒謬。如今現實生活中,許多國家面對層出不窮的犯罪問題,正在使用或引入屬於它們的「少數報告」。不過,它們依靠的並非是超能力人類,而是人工智慧(AI)。

由於AI的興起,給了學者專家突破的機會,嘗試統合犯罪學、人口學、地震學等學科,以及浩瀚無垠的案件資料,讓機器進行深度學習,找出人類無法預見的部分。

事實上,在我們的生活裡,已經充滿著監視器與人臉辨識系統,警務機關可藉由AI篩選「危險人物」。這跟AI預測犯罪有何不同?使用AI預測背後,又是否會產生一些AI與人類無法處理的問題?

如何預測犯罪?

綜合目前AI預測犯罪的類型大致可分為兩種。一種是預測犯罪熱點,像是ShotSpotter公司開發的槍聲感測器網路系統:感測器網路分佈於城市內,據稱能精確偵測到10英尺左右的槍擊位置,還能即時有效地提供警方關於槍械的資訊。與傳統網路不同的是,他們可以測量到各種武器的脈衝聲音,包括爆炸,因此被稱為是廣泛性的防護系統。

還有像是Predpol公司研發的傳染型餘震序列(Epidemic Type Aftershock Sequence,簡稱ETAS,借用地震學概念)模式,透過分析舊資料,號稱可預測未來犯罪最有可能發生的時間和地點,亦即在地圖系統內標識出犯罪熱點。採用此系統的警方,會鎖定熱點增派巡邏,以期阻止潛在犯罪。

另一種則是預測犯罪嫌疑人,例如Northpointe公司的替代性懲處受刑人管理剖析量表(Correctional Offender Management Profiling for Alternative Sanctions簡稱 COMPAS),這是針對受刑人的側寫評估。通過測量社會經濟地位、家庭背景、就業狀況等因素,預測個人未來犯罪風險的可能性。此量表計算出的分數會提供給法官,判斷是否適合保釋,以及衡量刑期。

又如英國劍橋大學犯罪學研究所教授設計的危害評估風險工具(Harm Assessment Risk Tool 簡稱HART),旨在預測違法者在未來兩年內犯罪的風險等級。與COMPAS不同的是,它不會涉及判斷違法者是否應該被拘留,而是幫助警方挑選低風險者進入名為「檢查點」(Checkpoint)的計劃。違法者只要符合該計劃的條件,就可以免去起訴等司法程式。

近來則有美國南加大研究團隊針對極端主義組織所架構的預測模型,同樣適用於幫派犯罪。它們使用神經網路(Neural Networks)計算系統,企圖識別犯罪嫌疑人與犯罪組織的關聯。據該團隊說,只要按照嫌疑人的數量、使用的武器以及犯罪發生地等條件,便能找出嫌疑人是否隸屬於某個幫派,進而協助警方辦案或是法庭定罪。

此外還有其餘多種技術方法。

由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。

由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。攝:Fernando Brito/AFP via Getty Images

AI預測真的有用嗎?

全球最廣泛熟練使用此等技術的當屬美國。目前紐約、洛杉磯、亞特蘭大和芝加哥等城市的員警部門,都有引進ETAS這類型的預測性警務軟體,或是架設ShotSpotter的感測器網路,COMPAS更是幾乎遍佈全美五十州。

就效果而言,某些使用AI預測的城市犯罪率確有下降,如去年芝加哥的謀殺事件下降16%、槍擊事件下降22%;洛杉磯警方發現,若巡邏使用ETAS,犯罪率平均減少7.4%;唯一測試HART的英國杜倫(Durham)警方聲稱,若與結果比較,該技術預測低風險犯罪嫌疑人的準確度可達98%、高風險準確度也有88%。

雖然有了具體成績,不過由於犯罪的成因甚為複雜,使用AI預測受到不少質疑。以ETAS為例,有論者指出這種演算法與執法部門多年來使用的「犯罪熱點地圖」並無太大區別。這是因為演算法不會憑空產生,PredPol也是將過去數十年累積的犯罪資料彙集在一起,再用程式設計疊加出犯罪高風險區域。

換言之,ETAS始終是前人智慧——即當地警方紀錄——的結晶。從這些報告中學習的AI,真正預測的不是未來,而是警方下一次值得巡邏與偵查的地方。因此執法人員會被反復地派遣到某些早被盯上的社區,卻忽略社區的實際犯罪率與潛在犯罪率之間的差別。

犯罪的歷史資料也可能會引發回饋迴圈(feedback loop)的問題。美國猶他大學的研究人員指出,ETAS的運算邏輯會把警方派到特定社區,尤其是少數族裔聚集之處。派遣的警力越多,被逮捕的人也會越多,然後下一次就會再增派更多警力,某些社區當然就難以脫離犯罪熱點,形成惡性循環。

由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。更重要的是,一旦出現問題,AI不啻是卸責的好藉口,讓警方有足夠的理由為涉及亂紀的行為辯護。

再以HART為例,這種演算法據說涵蓋了34種不同類別的資料。包括個人的年齡、性別和犯罪歷史等,引來批評最多的則是郵政區號。郵遞區號與個人住所相關,因此會使某些社區受到警方更多關注。 如果警方對高風險郵遞區號的區域預測做出回應,可能導致放大現有犯罪的結果。

這種演算法還會牽涉社區剝奪(community deprivation)的概念,也就是說,有些社區的經濟條件比較差,社區居民缺失政治權力或與社會正常的互動,卻變成AI思考嫌疑人是否再犯的因素之一,等於是對貧窮的人們施加額外且不平等的懲罰。

COMPAS的批評

此外,受到最多挑戰的,是使用最廣泛的COMPAS。由於COMPAS的演算法並未公開,遂變成訴訟攻防的一環。2013年美國威斯康辛州法庭對駕駛贓車且企圖逃逸的被告Eric Loomis進行判決,法官審酌COMPAS給出的分數,判處Loomis六年監禁。Loomis的律師不服,認為違反了被告的正當程式權利,因為COMPAS阻止被告挑戰此類科學評估的有效性,因此上訴到最高法院。

然而上訴遭到駁回,最高法院不認為採用COMPAS是秘密而不透明的審判流程,因為評估的方法既未向判決庭也未向被告披露。另外,最高法院認為LoomisCOMPAS資訊來源乃是被告提供與公開的資料,故而斷定使用COMPAS並不違法,且判決庭對資訊有自由裁量權,強化了COMPAS的正當性。

但是,去年ProPublica網站的記者們做了實驗,檢視COMPAS 分類的兩種被告(普通累犯和暴力累犯)。他們以佛羅里達州布勞沃德縣的一萬多名刑事被告為標的,將這些人被預測的「再犯率」與「兩年內實際發生率」進行比較,結果發現預測普通累犯的準確度約為六成,而暴力累犯只有兩成。

此外,COMPAS的演算法不包括種族,但COMPAS賦予不同膚色被告的風險評分(1~10分,最高風險為10分)比率,與實際再犯率之間有著驚人的誤差。要強調的是,這裡的膚色被告評分的分組,是ProPublica記者們自己採用被告資料做出的結果。

就普通累犯來看,被評為低風險的非裔美國人被告,實際上再犯的比例約為28%,白人約為48%。也就是說,若以膚色檢視預測結果,便可以看出誤差。COMPASS格外容易將非裔美國人被告視為未來的罪犯,白人被告則相反。

這樣的結論毫無意外地引來了Northpointe公司的反擊,以COMPAS量表上獲得7分的被告為例,60%的白人會再犯罪,這與非裔美國人的61%幾乎完全相同。

一些專家也加入討論,有的認為ProPublica記者的報告是基於錯誤的統計資料和分析,有的則指出兩方的論戰其實是對於公平定義的歧見。

重點是,COMPAS對於累犯的風險預測並未考慮膚色種族,那麼為什麼還會出現評分誤差呢?這是因為在佛州當地,非裔美國人被告的整體再犯率高於白人被告,約52%對39%(與美國全國平均相等)。越多的非裔美國人被逮捕,會讓演算法判斷具有相似條件的人再犯比率更高,自然越容易給予高風險評比。

由於非裔美國人社區的警務較重,或警方在決定逮捕時存在偏見,因此非裔美國人可能比犯同樣罪行的白人更常被捕。這顯示COMPAS受限於執法單位對於公共安全的權衡。

對於這種「變相的」歧視,許多公民團體都強烈批評執法單位利用AI便宜行事,短期或者可壓低犯罪率,但長期來看,預防犯罪的邊際效益必然遞減。

阻止AI學會歧視

為了避免這些情形加劇、也為了保障數字時代的人權,公民團體展開與警方的法律戰。像是去年在芝加哥,一群記者對當地警方的犯罪熱榜(heat list)提起訴訟,要求公開熱榜搜集哪些資料與使用方式,洛杉磯、紐奧良、紐約等城市也都有類似的官司正在審理當中。

無論這些判決結果為何,都不能完全否定AI對執法單位的作用。但不可諱言的是,犯罪預測已到了必須重新檢討的時刻:演算法所採用的許多資料參雜著警務和司法系統的既有觀點,而這些AI的預測結果將反過來加深執法人員的偏見。

換言之,真正的問題出在教導AI的人類。要創造公平且有益於每個人的AI,則需要在系統運作、甚至是在程式設計與導入資料前做更多的事。這意味著「透明性」的重要,僅僅因為採用電腦與大數據就聲稱演算法不具偏見、或是官方背書,都不足夠,必須評估演算法的前因後果以資證明。

誠然,AI公司可能會以商業機密、司法單位可能會以個人隱私拒絕公開,像是前述芝加哥警方為了保護執法者與線人等安全,堅不透露熱榜資訊。不過,這並不是不可解的問題,最適合的方式莫過於協力廠商審查,即引入外部專家來檢視演算法,並在代碼本身或者資料中尋找偏見的跡象,又可減少資料外泄的危險。

另外,由於每個人都會有明顯與隱含的偏見,因此AI公司可以為打造AI的技術人員提供一些特殊培訓,例如道德、法律等課程,以便他們能夠更好地檢測自己。

值得注意的是,今年達特茅斯學院電腦科學系研究室的兩位人員,也針對COMPAS的預測結果做了新分析,結果得出COMPAS在預測再犯風險方面並不比從網路上招募的隨機志願者更好:個人志願者能達到63%的準確率,團體志願者則上升到67%,相較之下,COMPAS的準確度為65%。

比起COMPAS採用上百個問題衡量再犯風險,兩位研究員只用了七個,包括年齡、性別與先前犯罪紀錄等。然而這不一定代表COMPAS出了問題,而是可能暗示著預測犯罪的AI已經達到複雜程度的上限。

直覺上,我們會認為資訊越多、越有利於判斷,但上述研究卻顯示,簡單的規則也可以帶來品質不遜於AI的風險評估。

隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。

隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。攝:Steffi Loos/Getty Images

以預防代替預測

隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。知道何時可能發生犯罪,與解決犯罪問題其實是兩回事。對比美國一些預測犯罪的做法,加拿大有另一套邏輯,多倫多警方沒有加強巡邏,而是使用預測模型將社區居民與社會服務聯繫起來。

加拿大政府希望利用數據建立更安全的社區,因為真正能減少犯罪的策略,應是讓有可能成為再犯者或即將鋌而走險的邊緣人,獲得社會服務和就業援助,而不是在已陷入困境的社區採取更嚴厲的打擊。

進一步而言,預測犯罪不該只是司法部門的任務,公民社會也該加入政策運作。例如社區經營的公共空間可以用來克制犯罪、緊密頻繁的社交活動有助於預防犯罪。針對累犯,特別是暴力犯的預測型監管措施,更需要在地社區的配合,如佈署小型的康復中心,以在地化的角度協助累犯重新融入社會,亦保障社區安全。

說到底,人類既然決定以有別於以往的科技,創造一個更符合理想的社會,那麼人的觀念也必須與時俱進。如果只是單純的用新方法解決老問題,只會加深既有的社會障礙。就現狀觀之,AI預測犯罪仍是人類大腦活動的擴展、仍在負面的刻板印象裡掙扎,差別僅在於辨識準確度的增加。

沒人知道未來AI會走到何種境界,但給擁有偏見的AI一把錘子時,或許多數人類在他看來就都像眼中釘。避免這種反噬,就是當代人的責任。

(徐子軒,LUCIO策略顧問總監,淡江大學國際事務與戰略研究所博士)

觸摸世界的政經脈搏
你觀察時代的可靠伙伴

已是端會員?請 登入賬號

端傳媒
深度時政報導

華爾街日報
實時財訊

全球端會員
智識社群

每週精選
專題推送

了解更多
徐子軒