跳至內容

機器人學會了我們的偏見怎麼辦? 比爾.蓋茨還說機器人要依法納稅、放假

雖然人工智能還處於發展初期,但立法監管人工智能已不是未雨綢繆。

「算法」真的冷酷而準確嗎?事實證明,它也許能摒除人類的主觀情感,但機器學習系統所吸收的數據和知識卻來源於人類,包括人的偏見。由人類創造的人工智能,目前還擺脱不了人性局限的陰影。他們學習了知識,卻無法摒棄認知偏見。

不少案例顯示,人工智能(Artificial Intelligence ,簡稱AI)如果存在歧視傾向,會嚴重影響人們的生活。一名22歲的亞裔DJ在申請新西蘭護照時遭拒,原因是他眼睛較小,處理照片的系統自行認定他「雙眼閉上」,不符合相片要求。微軟開發的聊天機器人Tay 在上線24小時後,就開始發表「希特勒沒有做錯事」等種族主義言論。有研究曾指出,Google在第三方網站上的廣告中,向男性求職者展示的招聘廣告待遇普遍比女性求職者高。哈佛大學肯尼迪學院發布的分析報告也指出,目前針對犯罪傾向性預測的人工智能系統對黑人群體存在偏見,而這種對人種膚色的偏見無法通過調整機器學習的策略和算法得以解決。

機器學習 指計算機通過對大型數據集進行運算分析,從而教會自己如何執行任務。機器學習中一個最前沿的分支是「深度學習(deep learning)」,也是今日推動人工智能發展的主要技術。

這也是為什麼人工智能仍處於發展「幼年期」,就已經有提倡人工智能監管的聲音出現。

本刊載內容版權為 端傳媒編輯部 或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。