徐子軒:AI預測犯罪,誰會成為人工智能的眼中釘?

使用AI預測背後,是否會產生一些AI與人類無法處理的問題?
事實上,在我們的生活裏,已經充滿著監視器與人臉辨識系統,警務機關可藉由AI篩選「危險人物」。

十多年前,好萊塢名導史匹堡(史匹柏,斯皮爾伯格)翻拍了1950年代的科幻小說,電影叫做《關鍵報告》(Minority Report,港譯「未來報告」,中國大陸譯「少數派報告」),內容是描述未來某國政府利用變異人類的超能力,預測潛在犯罪(pre-crime),以便司法系統提前阻止。因此,這樣的社會沒有重大罪行,只有充滿「潛在罪犯」的拘留營,一切看似安和樂利。

這類電影寓言凸顯長久以來,人類雖想預測犯罪,卻弄巧成拙的荒謬。如今現實生活中,許多國家面對層出不窮的犯罪問題,正在使用或引入屬於它們的「少數報告」。不過,它們依靠的並非是超能力人類,而是人工智慧(AI)。

由於AI的興起,給了學者專家突破的機會,嘗試統合犯罪學、人口學、地震學等學科,以及浩瀚無垠的案件資料,讓機器進行深度學習,找出人類無法預見的部分。

事實上,在我們的生活裡,已經充滿著監視器與人臉辨識系統,警務機關可藉由AI篩選「危險人物」。這跟AI預測犯罪有何不同?使用AI預測背後,又是否會產生一些AI與人類無法處理的問題?

如何預測犯罪?

綜合目前AI預測犯罪的類型大致可分為兩種。一種是預測犯罪熱點,像是ShotSpotter公司開發的槍聲感測器網路系統:感測器網路分佈於城市內,據稱能精確偵測到10英尺左右的槍擊位置,還能即時有效地提供警方關於槍械的資訊。與傳統網路不同的是,他們可以測量到各種武器的脈衝聲音,包括爆炸,因此被稱為是廣泛性的防護系統。

還有像是Predpol公司研發的傳染型餘震序列(Epidemic Type Aftershock Sequence,簡稱ETAS,借用地震學概念)模式,透過分析舊資料,號稱可預測未來犯罪最有可能發生的時間和地點,亦即在地圖系統內標識出犯罪熱點。採用此系統的警方,會鎖定熱點增派巡邏,以期阻止潛在犯罪。

另一種則是預測犯罪嫌疑人,例如Northpointe公司的替代性懲處受刑人管理剖析量表(Correctional Offender Management Profiling for Alternative Sanctions簡稱 COMPAS),這是針對受刑人的側寫評估。通過測量社會經濟地位、家庭背景、就業狀況等因素,預測個人未來犯罪風險的可能性。此量表計算出的分數會提供給法官,判斷是否適合保釋,以及衡量刑期。

又如英國劍橋大學犯罪學研究所教授設計的危害評估風險工具(Harm Assessment Risk Tool 簡稱HART),旨在預測違法者在未來兩年內犯罪的風險等級。與COMPAS不同的是,它不會涉及判斷違法者是否應該被拘留,而是幫助警方挑選低風險者進入名為「檢查點」(Checkpoint)的計劃。違法者只要符合該計劃的條件,就可以免去起訴等司法程式。

近來則有美國南加大研究團隊針對極端主義組織所架構的預測模型,同樣適用於幫派犯罪。它們使用神經網路(Neural Networks)計算系統,企圖識別犯罪嫌疑人與犯罪組織的關聯。據該團隊說,只要按照嫌疑人的數量、使用的武器以及犯罪發生地等條件,便能找出嫌疑人是否隸屬於某個幫派,進而協助警方辦案或是法庭定罪。

此外還有其餘多種技術方法。

由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。
由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。

AI預測真的有用嗎?

全球最廣泛熟練使用此等技術的當屬美國。目前紐約、洛杉磯、亞特蘭大和芝加哥等城市的員警部門,都有引進ETAS這類型的預測性警務軟體,或是架設ShotSpotter的感測器網路,COMPAS更是幾乎遍佈全美五十州。

就效果而言,某些使用AI預測的城市犯罪率確有下降,如去年芝加哥的謀殺事件下降16%、槍擊事件下降22%;洛杉磯警方發現,若巡邏使用ETAS,犯罪率平均減少7.4%;唯一測試HART的英國杜倫(Durham)警方聲稱,若與結果比較,該技術預測低風險犯罪嫌疑人的準確度可達98%、高風險準確度也有88%。

雖然有了具體成績,不過由於犯罪的成因甚為複雜,使用AI預測受到不少質疑。以ETAS為例,有論者指出這種演算法與執法部門多年來使用的「犯罪熱點地圖」並無太大區別。這是因為演算法不會憑空產生,PredPol也是將過去數十年累積的犯罪資料彙集在一起,再用程式設計疊加出犯罪高風險區域。

換言之,ETAS始終是前人智慧——即當地警方紀錄——的結晶。從這些報告中學習的AI,真正預測的不是未來,而是警方下一次值得巡邏與偵查的地方。因此執法人員會被反復地派遣到某些早被盯上的社區,卻忽略社區的實際犯罪率與潛在犯罪率之間的差別。

犯罪的歷史資料也可能會引發回饋迴圈(feedback loop)的問題。美國猶他大學的研究人員指出,ETAS的運算邏輯會把警方派到特定社區,尤其是少數族裔聚集之處。派遣的警力越多,被逮捕的人也會越多,然後下一次就會再增派更多警力,某些社區當然就難以脫離犯罪熱點,形成惡性循環。

由於絕大多數地方都面臨人手資源不足、辦案時間緊迫等壓力,如果有超越人類的助力,便可以減去許多麻煩;但對警方來說,這類的AI可能會讓他們過於依賴計算器生成的決策、降低員警的責任感。更重要的是,一旦出現問題,AI不啻是卸責的好藉口,讓警方有足夠的理由為涉及亂紀的行為辯護。

再以HART為例,這種演算法據說涵蓋了34種不同類別的資料。包括個人的年齡、性別和犯罪歷史等,引來批評最多的則是郵政區號。郵遞區號與個人住所相關,因此會使某些社區受到警方更多關注。
如果警方對高風險郵遞區號的區域預測做出回應,可能導致放大現有犯罪的結果。

這種演算法還會牽涉社區剝奪(community deprivation)的概念,也就是說,有些社區的經濟條件比較差,社區居民缺失政治權力或與社會正常的互動,卻變成AI思考嫌疑人是否再犯的因素之一,等於是對貧窮的人們施加額外且不平等的懲罰。

COMPAS的批評

此外,受到最多挑戰的,是使用最廣泛的COMPAS。由於COMPAS的演算法並未公開,遂變成訴訟攻防的一環。2013年美國威斯康辛州法庭對駕駛贓車且企圖逃逸的被告Eric Loomis進行判決,法官審酌COMPAS給出的分數,判處Loomis六年監禁。Loomis的律師不服,認為違反了被告的正當程式權利,因為COMPAS阻止被告挑戰此類科學評估的有效性,因此上訴到最高法院。

然而上訴遭到駁回,最高法院不認為採用COMPAS是秘密而不透明的審判流程,因為評估的方法既未向判決庭也未向被告披露。另外,最高法院認為LoomisCOMPAS資訊來源乃是被告提供與公開的資料,故而斷定使用COMPAS並不違法,且判決庭對資訊有自由裁量權,強化了COMPAS的正當性。

但是,去年ProPublica網站的記者們做了實驗,檢視COMPAS 分類的兩種被告(普通累犯和暴力累犯)。他們以佛羅里達州布勞沃德縣的一萬多名刑事被告為標的,將這些人被預測的「再犯率」與「兩年內實際發生率」進行比較,結果發現預測普通累犯的準確度約為六成,而暴力累犯只有兩成。

此外,COMPAS的演算法不包括種族,但COMPAS賦予不同膚色被告的風險評分(1~10分,最高風險為10分)比率,與實際再犯率之間有著驚人的誤差。要強調的是,這裡的膚色被告評分的分組,是ProPublica記者們自己採用被告資料做出的結果。

就普通累犯來看,被評為低風險的非裔美國人被告,實際上再犯的比例約為28%,白人約為48%。也就是說,若以膚色檢視預測結果,便可以看出誤差。COMPASS格外容易將非裔美國人被告視為未來的罪犯,白人被告則相反。

這樣的結論毫無意外地引來了Northpointe公司的反擊,以COMPAS量表上獲得7分的被告為例,60%的白人會再犯罪,這與非裔美國人的61%幾乎完全相同。

一些專家也加入討論,有的認為ProPublica記者的報告是基於錯誤的統計資料和分析,有的則指出兩方的論戰其實是對於公平定義的歧見。

重點是,COMPAS對於累犯的風險預測並未考慮膚色種族,那麼為什麼還會出現評分誤差呢?這是因為在佛州當地,非裔美國人被告的整體再犯率高於白人被告,約52%對39%(與美國全國平均相等)。越多的非裔美國人被逮捕,會讓演算法判斷具有相似條件的人再犯比率更高,自然越容易給予高風險評比。

由於非裔美國人社區的警務較重,或警方在決定逮捕時存在偏見,因此非裔美國人可能比犯同樣罪行的白人更常被捕。這顯示COMPAS受限於執法單位對於公共安全的權衡。

對於這種「變相的」歧視,許多公民團體都強烈批評執法單位利用AI便宜行事,短期或者可壓低犯罪率,但長期來看,預防犯罪的邊際效益必然遞減。

阻止AI學會歧視

為了避免這些情形加劇、也為了保障數字時代的人權,公民團體展開與警方的法律戰。像是去年在芝加哥,一群記者對當地警方的犯罪熱榜(heat list)提起訴訟,要求公開熱榜搜集哪些資料與使用方式,洛杉磯、紐奧良、紐約等城市也都有類似的官司正在審理當中。

無論這些判決結果為何,都不能完全否定AI對執法單位的作用。但不可諱言的是,犯罪預測已到了必須重新檢討的時刻:演算法所採用的許多資料參雜著警務和司法系統的既有觀點,而這些AI的預測結果將反過來加深執法人員的偏見。

換言之,真正的問題出在教導AI的人類。要創造公平且有益於每個人的AI,則需要在系統運作、甚至是在程式設計與導入資料前做更多的事。這意味著「透明性」的重要,僅僅因為採用電腦與大數據就聲稱演算法不具偏見、或是官方背書,都不足夠,必須評估演算法的前因後果以資證明。

誠然,AI公司可能會以商業機密、司法單位可能會以個人隱私拒絕公開,像是前述芝加哥警方為了保護執法者與線人等安全,堅不透露熱榜資訊。不過,這並不是不可解的問題,最適合的方式莫過於協力廠商審查,即引入外部專家來檢視演算法,並在代碼本身或者資料中尋找偏見的跡象,又可減少資料外泄的危險。

另外,由於每個人都會有明顯與隱含的偏見,因此AI公司可以為打造AI的技術人員提供一些特殊培訓,例如道德、法律等課程,以便他們能夠更好地檢測自己。

值得注意的是,今年達特茅斯學院電腦科學系研究室的兩位人員,也針對COMPAS的預測結果做了新分析,結果得出COMPAS在預測再犯風險方面並不比從網路上招募的隨機志願者更好:個人志願者能達到63%的準確率,團體志願者則上升到67%,相較之下,COMPAS的準確度為65%。

比起COMPAS採用上百個問題衡量再犯風險,兩位研究員只用了七個,包括年齡、性別與先前犯罪紀錄等。然而這不一定代表COMPAS出了問題,而是可能暗示著預測犯罪的AI已經達到複雜程度的上限。

直覺上,我們會認為資訊越多、越有利於判斷,但上述研究卻顯示,簡單的規則也可以帶來品質不遜於AI的風險評估。

隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。
隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。

以預防代替預測

隨著深度學習的進化,AI預測犯罪的準確度或許能逐步提升,但實際上可能無法預防犯罪。知道何時可能發生犯罪,與解決犯罪問題其實是兩回事。對比美國一些預測犯罪的做法,加拿大有另一套邏輯,多倫多警方沒有加強巡邏,而是使用預測模型將社區居民與社會服務聯繫起來。

加拿大政府希望利用數據建立更安全的社區,因為真正能減少犯罪的策略,應是讓有可能成為再犯者或即將鋌而走險的邊緣人,獲得社會服務和就業援助,而不是在已陷入困境的社區採取更嚴厲的打擊。

進一步而言,預測犯罪不該只是司法部門的任務,公民社會也該加入政策運作。例如社區經營的公共空間可以用來克制犯罪、緊密頻繁的社交活動有助於預防犯罪。針對累犯,特別是暴力犯的預測型監管措施,更需要在地社區的配合,如佈署小型的康復中心,以在地化的角度協助累犯重新融入社會,亦保障社區安全。

說到底,人類既然決定以有別於以往的科技,創造一個更符合理想的社會,那麼人的觀念也必須與時俱進。如果只是單純的用新方法解決老問題,只會加深既有的社會障礙。就現狀觀之,AI預測犯罪仍是人類大腦活動的擴展、仍在負面的刻板印象裡掙扎,差別僅在於辨識準確度的增加。

沒人知道未來AI會走到何種境界,但給擁有偏見的AI一把錘子時,或許多數人類在他看來就都像眼中釘。避免這種反噬,就是當代人的責任。

(徐子軒,LUCIO策略顧問總監,淡江大學國際事務與戰略研究所博士)

編輯推薦

讀者評論 5

會員專屬評論功能升級中,稍後上線。加入會員可閱讀全站內容,享受更多會員福利。
  1. 人工智能很不着调,各个领域预测模型都很容易出现偏见,ROC Curve看着都挺美,但一用就发现这也不对那也不对…… 加拿大那种使用方法是更合适的。

  2. psychopass?

  3. 我们都在往前走。但是,哪边是前,哪边是后,我们也要时常反思,是否失了方向。

  4. 记得有一个行为科学叫犯罪心理画像 通过对犯罪现场的心理痕迹和物理痕迹进行对罪犯进行心理和生理的画像 可惜当初没能通过 一直作为辅助技术

  5. 科技無罪,但最終還是會被壞人用成少數派報告中的樣子