「算法」真的冷酷而準確嗎?事實證明,它也許能摒除人類的主觀情感,但機器學習系統所吸收的數據和知識卻來源於人類,包括人的偏見。由人類創造的人工智能,目前還擺脱不了人性局限的陰影。他們學習了知識,卻無法摒棄認知偏見。
不少案例顯示,人工智能(Artificial Intelligence ,簡稱AI)如果存在歧視傾向,會嚴重影響人們的生活。一名22歲的亞裔DJ在申請新西蘭護照時遭拒,原因是他眼睛較小,處理照片的系統自行認定他「雙眼閉上」,不符合相片要求。微軟開發的聊天機器人Tay 在上線24小時後,就開始發表「希特勒沒有做錯事」等種族主義言論。有研究曾指出,Google在第三方網站上的廣告中,向男性求職者展示的招聘廣告待遇普遍比女性求職者高。哈佛大學肯尼迪學院發布的分析報告也指出,目前針對犯罪傾向性預測的人工智能系統對黑人群體存在偏見,而這種對人種膚色的偏見無法通過調整機器學習的策略和算法得以解決。
這也是為什麼人工智能仍處於發展「幼年期」,就已經有提倡人工智能監管的聲音出現。
2016年4月,歐洲議會通過了商討四年的《一般數據保護條例》(General Data Protection Regulation),條例中提到的「解釋權」將賦予歐盟國家公民「審查某項特定服務中如何做出特定算法決策」這一權利。這一條例將於2018年正式執行,應用範圍包括脱歐進行中的英國。
倫敦阿蘭·圖靈研究所(Alan Turing Institute)和牛津大學互聯網研究所的研究團隊卻發布報告指出,《一般數據保護條例》沒有從根本上保證人工智能的問責和透明度。報告作者之一桑德拉·瓦赫特(Sandra Wachter)在接受端傳媒專訪時表示,這份條例只能給予人們最低限度的保護,對「解釋權」沒有足夠的法律約束力。特別是其中涉及「解釋權」的措辭,只保障了人們對某一人工智能決定進行質疑、介入的權利,沒有要求企業向人們解釋某一人工智能決定可能導致的後果,從而削弱了「解釋權」應有的作用。
人工智能之所以作出有偏見的決定,瓦赫特認為是源於系統固有的不透明性。「這一問題的根源有兩方面,一方面,算法從獲得的數據中分析並尋找模式,得出的結論是開放者無法預測的,另一方面,輸入算法中的數據可能存在偏見,因此導致算法得出有偏見的結論。」她舉例道:
「我的公司想招聘一個管理職位,為了找到最好的人選,我會把過往成功申請者的數據輸入到算法中。我或許不知道具體選拔標準,但算法能在數據中得出某些模式,例如,這一職位的人選通常是中歐的40歲白人男性。因此,數據和結論都是存在偏見的。」
她認為,在一些社會領域,人工智能在作出公正、公平的決定上有着巨大潛力,例如醫療衞生方面,人工智能可以在臨床試驗上檢測到人類無法察覺的臨床表徵,但同時,在勞工市場、司法系統等方面,人工智能的風險可能會帶來影響絕大多數人的嚴重後果,因此在運用時應該更加謹慎。這也是為什麼她認為現時就應有對於人工智能監管的多方面討論,只有社會上有了相關道德準則和深謀遠慮之後,人工智能才能被更好地被塑造,在人類社會發展中發揮正面作用。
研究所另一份報告比較了在2016年10月,白宮、歐洲議會和英國下議院各自發表的關於社會如何應對人工智能廣泛使用的白皮書。三份白皮書都認為,透明度、問責和對經濟及社會的積極作用,是衡量「良好的人工智能社會」的指標,並特別點明瞭人工智能對經濟、教育、戰爭、多元化、國家安全等方面的影響。
但報告指出,三份白皮書都忽略了一個重要的問題——對於在21世紀的成熟資訊社會,人類應該有什麼樣的規劃?報告建議,人類應清晰認識我們想要發展的「良好人工智能社會」是什麼樣的,並引導人工智能向對人類有益的方向發展。在這其中,政府有責任制定法規監管人工智能,問責人工智能作出的決定,這一責任是企業和研究界無法替代的。
微軟創始人比爾·蓋茨也認同政府在監管機器人發展中的積極角色。他認為,在將來,政府將會就智能化推出相應的税項,而特別是在解決機器人取代人類勞動力所帶來的不公平問題上,政府比商界能起到更大的作用。他還提出,如果機器人將大範圍取代人類工作崗位,那它們應為此買單。他說,人類工人需要繳納所得税、社會保障税等,如果機器人在工廠做與人類工人同樣的事情,機器人也應按同等水平繳税。
瓦赫特還指出,應建立一個值得信賴的第三方監管機構,對人們認為受到歧視的人工智能決定進行調查,對有關算法進行審計,這既能消除企業對商業機密外泄的擔憂,同時也能讓當事人對結果感到滿意。她表示,對於人工智能的監管應該是一個全球性的議題,如何塑造科學技術在人類社會的角色,需要有政府、學界、私營企業及公民社會的參與和討論。
值得一提的是,在今年2月「Beneficial A.I. 2017」大會後,霍金、馬斯克(Elon Musk)等892名人工智能或機器人研究人員和1445名專家聯名支持併發布了《艾斯羅馬人工智能23原則》(Asilomar A.I. Principles),訂下人工智能應該在生產力、道德和安全領域遵守的23條基本原則。原則中就提到司法透明度,指出,在司法決策系統中使用任何形式的自動化系統,都應提供令人滿意的解釋,並由有能力的人員進行審查。
不過,也有學者認為在現階段就引入人工智能監管是不成熟的。著有《超級智能》(Superintelligence)的牛津大學哲學教授尼克·波斯特羅姆(Nick Bostrom)對端傳媒表示,雖然在部分領域智能技術已有超越人類的表現,但廣泛來說,人工智能的發展還未達到與人類相當的水平。
但波斯特羅姆也預測,人工智能一旦可與人類水平比肩,可能會在不到10年時間裏向超級智能的方向發展。他認為,正如我們的肌肉在力量和耐力方面已被機械裝置所超越,即便生物醫學有突破性發展,我們的大腦最終也將會被機器超越。
如此說來,儘早在人工智能立法上綢繆,或許是人們步入「良好人工智能社會」的正確方式。
所謂的機器偏見,不過是人性的影子。
監管機器不如監管人類。
人類會被機器人淘汰,其實指的只是「目前的人類」而已。因爲今天的大多數人活得就像機器一樣,按照機器的運作方式去工作,按照機器式的簡單邏輯去思考,沒有發揮出人類本有的價值和潛能。
端百科有誤:「深度學習」只是機器學習的一種常用方法,或者說一個分支。
哪里有什么偏见,这只是极端的客观和理性。
开放蠕虫都不能完全模拟一只真正的蠕虫,更何况是复杂的人脑。若想实现科幻片中的高级AI为时太早,现存的偏见其来源还是人类。全球范围能够达成对民主、自由、人权、平等的共识,人类文明就会很自然的过渡和进阶。