日報

AI 法官和人類法官斷案重合度高達79%,他們比人類更客觀嗎?

刊登於 2016-10-26

人工智能在分析歐洲人權法院涉及酷刑,虐待,有辱人格和侵犯隱私的案件中做出的判定中有五分之四與人類法官的判決相同。
研究對比了歐洲人權法院的584個過往判決。

人工智能(AI)滲透各行各業早已不是新聞,但以前更多的變化發生在如工程師、醫生等職業上,你或許想像不出一位機器人法官坐在審判席上的場景。機器人能當好包公嗎?

科學期刊 PeerJ Computer Science 上的最新論文顯示,英美兩國計算機科學家聯手研發出了一位「AI 法官」。在前期的試驗中,這位法官大人針對酷刑、公平審判和隱私領域的584個過往案件進行了判決。綜合衡量法律證據與道德因素做出的判決中,有79%與歐洲人權法院(ECtHR)人類法官做出的判決相同。但研發團隊表示,這一 AI 程式雖可成為法官與律師的輔助工具,在特定情境下快速識別並分類案件,但目前還無法取代人類法官進行審判。

雖然目前法院已經使用了大量的電腦分析工具,但我沒有看到,我們已經準備好或接近準備好創建 AI 法官與 AI 律師。

倫敦大學學院計算機科學系博士、論文第一作者 Nikolaos Aletras

研究者的論文描述稱,這個AI 程式分析的584個案例涉及《歐洲人權公約》(ECHR)第3條(禁止酷刑與虐待,250個)、第6條(公平審判權,80個)以及第8條(私隱權,254個),選擇這些案例是因為它們代表人的基本權利,而且存在大量已公開數據。

但是,因為現實條件限制,研究者們無法利用這些案件中向法院提交的原始文件進行測試,而只能從已經公開的判決文件提取關鍵信息,然後交給 AI 審判。

AI 研究的意外收穫

在研究過程中,該團隊還有了個意外收穫。他們發現人類法官的判決,更多的取決於案件本身的事實(案件過程和細節),而不是純粹的法律論據(究竟是否違反人權公約)。用法律業界行話來講,這意味着歐洲人權法院的法官們在運用法律理論時,更多時候是「現實主義者」(realists)而非「形式主義者」(formalists)。而且根據以往的研究,包括美國最高法院在內,其他高級別法院的判決同樣如此。

這個現象讓英國倫敦大學學院計算機科學系博士、論文第一作者 Nikolaos Aletras 非常擔心:「我們不主張法官以任何特定的方式做出判決。」看來在他眼中,「無情無義」的機器人或許要更加客觀。

50 %
為了避免偏見和誤導,給 AI 學習和借鑒的案例中,「違法」與「不違法」各佔50%。

聲音

這類研究擁有巨大潛力,通過自動化某些無趣的環節,在處理法律案件時可以節省大量時間,同時增加人們做出正確判斷的概率。

英國數據諮詢公司 Tessella 分析師 Matt Jones

歐洲人權法院

歐洲人權法院(ECtHR)是在《歐洲人權公約》的規定下建立的超國家國際法庭,位於法國斯特拉斯堡。它審理那些指控公約締約國違反一條或多條《歐洲人權公約》裏關於公民及政治權利的人權案件。申請方可以是單個人、也可以是一群人,還可以是一個或者多個公約締約國,法庭除了給出判決外,也可以給出諮詢意見。目前所有歐洲委員會的成員國均為《歐洲人權公約》締約國,且新加入的成員也將被要求批准這個公約。(資料來自維基百科,百科內容以 CC BY-SA 3.0授權)

來源:VergeRTBBC衛報

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀