日报

用大数据算法作为量刑参考,能否让审判变得更公平?

刊登于 2016-07-21

泰国一所监狱。
美国威斯康辛州参考电脑算法为疑犯量刑,引发讨论。

2013年2月,美国威斯康辛州拉克罗斯(La Crosse)警方拘捕了 Eric Loomis,因为后者驾驶的汽车曾在一宗驾车枪击案中被使用过。由于躲避警方追捕以及未经主人许可使用汽车等罪名,威斯康辛高等法院近日判处 Loomis 六年监禁。

而让这起案件引起关注的是,法官做出此项判决时,并非只是因为 Loomis 有多次犯罪记录,他们还参考了电脑算法给出的“危险性评分”——电脑告诉法官,Loomis 在未来“很可能”会参与暴力犯罪。

在这起案件中,当地法官使用的是 Northpointe 公司开发的危险性评分商业软件 Compas。该公司称,被这一软件评为“高危险性”的嫌犯,于两年内再次被捕的概率达到70%。

有报导指出,这类危险性评分系统在美国的法庭审判中被越来越多地使用。通过输入嫌犯的被捕记录、犯罪类型、人口统计信息等资料,电脑就会给出嫌犯的危险性评分,并提供给法庭作为量刑参考。软件开发者认为,这类工具可以减少人类法官的下意识偏见、情绪以及其他缺陷在断案时造成的影响,因此更为“公平”。

与这类算法相关的研究并不鲜见,宾夕法尼亚大学(UPenn)犯罪学与统计学教授 Richard Berk 就是该领域的一位重要研究者。他自上世纪60年代末开始研究犯罪学,并于90年代中期开始专注于机器学习(Machine Learning)——一类从大量数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。

Berk 研发出的模型吸收了数万人的档案数据,包括每个人首次被捕的年龄、居住区域、在狱中生活的时间、释放后是否再次被捕等信息,然后通过这些数据分析出一套模式。

他认为,关于犯罪问题其实并没有很完善的理论,恰好机器学习方法的优点就在于,它并不需要了解某个人变得暴力的原因,而只需要足够多的数据。他还特别指出,该模型并不需要输入嫌犯的种族,其得出的危险性评分在不同种族之间也未见明显差异,这表明算法消除了种族因素上的人为偏见。

Berk 开发的模型已经被应用于许多方面,包括帮助监狱判断哪些囚犯需要被关在限制区域;假释部门应如何密切监视假释囚犯;警方预测哪些因为家庭暴力而被捕的人会再次犯案;哪些工作场所更可能违反安全规定等等。他目前正在研发的算法甚至希望根据出生时收集的数据,预测一个人到18岁时是否会犯罪。Berk 坦言,对这项研究最大的限制是缺乏数据。

不过,一些反对者认为,这类软件不符合程序,其不透明的计算方式不应作为法庭判据;也有人指出,因被评分为“高危险性”而遭判重罪的人,其实是在替他人的犯罪行为承担责任,因为这类软件本质上是在对大量罪犯信息作统计分析。

2
新闻网站 ProPublica 发表调查称,佛罗里达某地7000个采用 Compas 软件的案例中,黑人被评为高危险性的比例是白人的2倍。

声音

这是关于犯罪分析的创新研究,我们力求在问题出现之前,预测案件会在哪里发生。

John Jay College 预测警务研究者 Eric Piza

我们急于奔向未来,自以为减少了数据中潜在的偏见,但大数据危险性评估目前还缺乏适当的研究论证。

美国公民自由联盟 Ezekiel Edwards

非裔美国人枪击事件

7月5日,在美国最南部的路易斯安那州,正在兜售光碟的非裔小贩斯特林(Alton Sterling)被警察制服倒地后连轰五枪死亡。7月6日,在美国最北部的明尼苏达州,在驾车行驶中的非裔卡斯蒂尔(Philando Castile)主动告知警察自己有持枪许可,在搜寻身份证件时,被警察射杀。7月7日,在达拉斯市中心“黑人的命也是命”(Black Lives Matter)集会现场,五名维持秩序的警察被非裔退伍军人米卡·约翰逊(Micah Johnson)射杀。

来源:纽约时报

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读