日报

AI 法官和人类法官断案重合度高达79%,他们比人类更客观吗?

刊登于 2016-10-26

人工智能在分析欧洲人权法院涉及酷刑,虐待,有辱人格和侵犯隐私的案件中做出的判定中有五分之四与人类法官的判决相同。
研究对比了欧洲人权法院的584个过往判决。

人工智能(AI)渗透各行各业早已不是新闻,但以前更多的变化发生在如工程师、医生等职业上,你或许想像不出一位机器人法官坐在审判席上的场景。机器人能当好包公吗?

科学期刊 PeerJ Computer Science 上的最新论文显示,英美两国计算机科学家联手研发出了一位“AI 法官”。在前期的试验中,这位法官大人针对酷刑、公平审判和隐私领域的584个过往案件进行了判决。综合衡量法律证据与道德因素做出的判决中,有79%与欧洲人权法院(ECtHR)人类法官做出的判决相同。但研发团队表示,这一 AI 程式虽可成为法官与律师的辅助工具,在特定情境下快速识别并分类案件,但目前还无法取代人类法官进行审判。

虽然目前法院已经使用了大量的电脑分析工具,但我没有看到,我们已经准备好或接近准备好创建 AI 法官与 AI 律师。

伦敦大学学院计算机科学系博士、论文第一作者 Nikolaos Aletras

研究者的论文描述称,这个AI 程式分析的584个案例涉及《欧洲人权公约》(ECHR)第3条(禁止酷刑与虐待,250个)、第6条(公平审判权,80个)以及第8条(私隐权,254个),选择这些案例是因为它们代表人的基本权利,而且存在大量已公开数据。

但是,因为现实条件限制,研究者们无法利用这些案件中向法院提交的原始文件进行测试,而只能从已经公开的判决文件提取关键信息,然后交给 AI 审判。

AI 研究的意外收获

在研究过程中,该团队还有了个意外收获。他们发现人类法官的判决,更多的取决于案件本身的事实(案件过程和细节),而不是纯粹的法律论据(究竟是否违反人权公约)。用法律业界行话来讲,这意味着欧洲人权法院的法官们在运用法律理论时,更多时候是“现实主义者”(realists)而非“形式主义者”(formalists)。而且根据以往的研究,包括美国最高法院在内,其他高级别法院的判决同样如此。

这个现象让英国伦敦大学学院计算机科学系博士、论文第一作者 Nikolaos Aletras 非常担心:“我们不主张法官以任何特定的方式做出判决。”看来在他眼中,“无情无义”的机器人或许要更加客观。

50 %
为了避免偏见和误导,给 AI 学习和借鉴的案例中,“违法”与“不违法”各占50%。

声音

这类研究拥有巨大潜力,通过自动化某些无趣的环节,在处理法律案件时可以节省大量时间,同时增加人们做出正确判断的概率。

英国数据咨询公司 Tessella 分析师 Matt Jones

欧洲人权法院

欧洲人权法院(ECtHR)是在《欧洲人权公约》的规定下建立的超国家国际法庭,位于法国斯特拉斯堡。它审理那些指控公约缔约国违反一条或多条《欧洲人权公约》里关于公民及政治权利的人权案件。申请方可以是单个人、也可以是一群人,还可以是一个或者多个公约缔约国,法庭除了给出判决外,也可以给出咨询意见。目前所有欧洲委员会的成员国均为《欧洲人权公约》缔约国,且新加入的成员也将被要求批准这个公约。(资料来自维基百科,百科内容以 CC BY-SA 3.0授权)

来源:VergeRTBBC卫报

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读