容貌可以判斷一個人的性格特徵嗎?你有什麼「以貌取人」的心得嗎?
利用算法對容貌進行識別和分類,算出他/她的個性及思考等特徵,是侵犯私隱嗎?
AI「以貌取人」,可以讓我們的世界變得更好更清晰嗎?
9月7日,美國史丹福大學(Stanford University)發布研究報告稱,經過深度學習的人工智能(Artificial Intelligence)可以通過面部照片,判斷相中人是同性戀還是異性戀,對男性的判斷準確率高達91%。研究者表示,通過提升取樣樣本與演進算法,AI日後可能通過長相判斷一個人的個性特點、政治取向、甚至智商高低。
研究員科辛斯基(Michal Kosinski)與王軼倫(Yilun Wang)提取了美國交友網站上逾30萬張用戶臉部照片的公開資料,其中包括3萬6千多名男性的超過13萬張相片,與3萬8千多名女性的超過17萬張相片。
研究員利用「深度神經網絡」模型,對這些照片中人物的臉型、眉型、鼻型、嘴型等面部特徵進行量化收集和研究整理,發現同性戀男女往往有「非性別典型」(gender-atypical)的特徵,男同性戀者長相多數偏女性化,女同性戀者長相多數偏男性化。例如,相比異性戀,男同性戀者相片上呈現出下巴更窄、鼻子更長、前額更大的特徵,女同性戀則相比女異性戀下巴較寬、前額較小。
據研究者稱,這套識別算法憑單張照片分辨同性戀和異性戀的準確率為男性81%、女性74%,而若憑藉五張照片,對男性的性取向判斷準確率則高達91%,女性準確率為83%。研究者稱,「面部特徵暗示了很重要的隱私信息。」
美國兩大LGBT人權團體(Glaad、HRC)隨後發表聯合聲明,對這份研究表達了質疑和抗議,認為這份報告「排除了那些非二元化(如雙性戀)的性別認同或性取向」,忽略了LGBTQ族群巨大的差異性和多元化,取樣選擇也忽略了非白人、老人、變性人及其他不願上傳照片至約會網站的LGBTQ群體。
抗議者直指這份研究是「垃圾科學」,表示它可能引向僵化的性向二元論並傷害同性戀及異性戀群體,甚至可能變成反同團體進行種族歧視的「武器」。報告研究者回應稱研究可能有誤,但「只有科學才可以反駁科學」,同時表示研究初衷是良善的,希望可以通過這項研究提前對少數群體的隱私進行保護。
另外,此前也有對容貌與犯罪之間關聯的研究,通過面部照片區分罪犯與非罪犯準確率可高達89%,「罪犯的內眼角間距要比普通人平均短5.6%、上脣曲率大23.4%、鼻脣角角度小19.6%」。
AI版「同志雷達」會加深對LGBTQ群體的刻板印象嗎?「以貌取人」究竟可不可取?