日報

用大數據算法作為量刑參考,能否讓審判變得更公平?

刊登於 2016-07-21

泰國一所監獄。
美國威斯康星州參考電腦算法為疑犯量刑,引發討論。

2013年2月,美國威斯康星州拉克羅斯(La Crosse)警方拘捕了 Eric Loomis,因為後者駕駛的汽車曾在一宗駕車槍擊案中被使用過。由於躲避警方追捕以及未經主人許可使用汽車等罪名,威斯康星高等法院近日判處 Loomis 六年監禁。

而讓這起案件引起關注的是,法官做出此項判決時,並非只是因為 Loomis 有多次犯罪記錄,他們還參考了電腦算法給出的「危險性評分」——電腦告訴法官,Loomis 在未來「很可能」會參與暴力犯罪。

在這起案件中,當地法官使用的是 Northpointe 公司開發的危險性評分商業軟件 Compas。該公司稱,被這一軟件評為「高危險性」的嫌犯,於兩年內再次被捕的概率達到70%。

有報導指出,這類危險性評分系統在美國的法庭審判中被越來越多地使用。通過輸入嫌犯的被捕記錄、犯罪類型、人口統計信息等資料,電腦就會給出嫌犯的危險性評分,並提供給法庭作為量刑參考。軟件開發者認為,這類工具可以減少人類法官的下意識偏見、情緒以及其他缺陷在斷案時造成的影響,因此更為「公平」。

與這類算法相關的研究並不鮮見,賓夕法尼亞大學(UPenn)犯罪學與統計學教授 Richard Berk 就是該領域的一位重要研究者。他自上世紀60年代末開始研究犯罪學,並於90年代中期開始專注於機器學習(Machine Learning)——一類從大量數據中自動分析獲得規律,並利用規律對未知數據進行預測的算法。

Berk 研發出的模型吸收了數萬人的檔案數據,包括每個人首次被捕的年齡、居住區域、在獄中生活的時間、釋放後是否再次被捕等信息,然後通過這些數據分析出一套模式。

他認為,關於犯罪問題其實並沒有很完善的理論,恰好機器學習方法的優點就在於,它並不需要了解某個人變得暴力的原因,而只需要足夠多的數據。他還特別指出,該模型並不需要輸入嫌犯的種族,其得出的危險性評分在不同種族之間也未見明顯差異,這表明算法消除了種族因素上的人為偏見。

Berk 開發的模型已經被應用於許多方面,包括幫助監獄判斷哪些囚犯需要被關在限制區域;假釋部門應如何密切監視假釋囚犯;警方預測哪些因為家庭暴力而被捕的人會再次犯案;哪些工作場所更可能違反安全規定等等。他目前正在研發的算法甚至希望根據出生時收集的數據,預測一個人到18歲時是否會犯罪。Berk 坦言,對這項研究最大的限制是缺乏數據。

不過,一些反對者認為,這類軟件不符合程序,其不透明的計算方式不應作為法庭判據;也有人指出,因被評分為「高危險性」而遭判重罪的人,其實是在替他人的犯罪行為承擔責任,因為這類軟件本質上是在對大量罪犯信息作統計分析。

2
新聞網站 ProPublica 發表調查稱,佛羅里達某地7000個採用 Compas 軟件的案例中,黑人被評為高危險性的比例是白人的2倍。

聲音

這是關於犯罪分析的創新研究,我們力求在問題出現之前,預測案件會在哪裏發生。

John Jay College 預測警務研究者 Eric Piza

我們急於奔向未來,自以為減少了數據中潛在的偏見,但大數據危險性評估目前還缺乏適當的研究論證。

美國公民自由聯盟 Ezekiel Edwards

非裔美國人槍擊事件

7月5日,在美國最南部的路易斯安那州,正在兜售光碟的非裔小販史達寧(Alton Sterling)被警察制服倒地後連轟五槍死亡。7月6日,在美國最北部的明尼蘇達州,在駕車行駛中的非裔卡斯蒂爾(Philando Castile)主動告知警察自己有持槍許可,在搜尋身份證件時,被警察射殺。7月7日,在達拉斯市中心「黑人的命也是命」(Black Lives Matter)集會現場,五名維持秩序的警察被非裔退伍軍人米卡·約翰遜(Micah Johnson)射殺。

來源:紐約時報

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀