端傳媒七週年國際科技深度

人臉識別到底是甚麼?演算法是不是無所不能?

人臉識別系統無處不在,我們似乎已無法抗拒一舉一動被記錄下來;但這些模擬人腦的演算法,其實遠非牢不可破。

2018年10月,中國北京一個保安科技博覽展。

2018年10月,中國北京一個保安科技博覽展。攝:Thomas Peter/Reuters/達志影像

特約撰稿人 朱孝文 發自倫敦

刊登於 2022-09-06

#人面識別#端傳媒七週年#監控#人臉識別#科技

【編者按】2019年,BBC的一套記錄片拍到了倫敦警察試用人臉識別系統的情景:一名(貌似有中東血統的)男子在攝像頭前把衣領拉高,結果被警察截停審問。行人質疑警察截查該男子的理由,警察說是因為「他看到鏡頭就立即嘗試遮臉」,所以他們認為他形跡可疑。這個不想讓攝像頭拍到自己的男子,最終還是被警察拍了照。

人臉識別不止在中俄等威權國家蓬勃發展,即使在民主社會,這種技術還是引起了許多關於私隱﹑人權的爭議,而且社會對個體的保障似乎遠沒有科技發展那麼迅速。端傳媒九月將刊出一系列專題報道,探討中國和俄羅斯成為監控社會之路。這篇文章是系列的第一篇,將解釋人臉識別的原理,以及個體「逃離」識別系統在技術上的可能性。請持續留意端傳媒報道。

(朱孝文,人工智能研究員)

她打開了自己的相簿,把一張自己早兩天拍下的生活照,從桌面上拉到網站的搜尋框。不消數十秒,網站顯示了一堆搜尋結果:那是從互聯網上九億張圖片中找出來的她的照片,裏面有一些連她自己也未看過,有些她甚至已經戴了口罩或太陽眼鏡。更甚的是,裏面一些圖片來自色情網站,雖然主角並不是她本人。這是《紐約時報》編輯Kashmir Hill在2022年5月測試一個名為PimEyes的人臉識別搜尋網站時的經歷。我讓端的編輯看看她的照片在PimEyes顯示了甚麼結果,她除了看到自己的照片,搜尋結果中也有跟她相似的陌生人(而且也有非她本人並來自色情網站的照片,正如Hill所言,單是系統認為這「可能是她們」,就已經夠令人不安了)。

十多年前谷歌Google Photo推出試用服務,大概是我第一次見識人臉識別系統潛力的契機--我將數千張照片拉到平台上,系統自動將數百個被拍攝者辨認出來。最讓我驚訝的,是同一個人跨越不同年齡段的照片都被它認出來了,例如童年時期的我與大學時期的我,Google的系統都能認作同一個人(雖然有少量我的照片被它辨識作另外兩個「我」,特別是側面照),在當時確實非常厲害。現在人面辨識已在各種應用上無處不在,從網上申請銀行帳戶時所提交的自拍所觸發的「電子模式認識你的客戶」(Electronic Know Your Customer,eKYC)驗證,到辨理簽證及各國機場入閘時的資料核對,都用上了這種技術。

過去十年,隨著深度學習的發展,人臉辨識技術也愈來愈成熟。現在它能從茫茫人海中將個人準確鎖定,如果被沒有權力制衡的組織使用,將會是我們每個人的惡夢。人臉識別系統自2010年代晚期開始普及進北京社區,根據外媒報道,這個系統也在不同城市掃描居民面孔,以判斷是否有維族人。配合社會信用體系,人臉辨識能令個人私生活無所遁形。2022年初,國際特赦組織也發布了研究報告,指紐約警方在黑人和拉丁裔社區的許多天眼有人臉辨識功能,是對個人自由的侵犯。而近年大行其道卻名聲敗壞的DeepFake演算法,也與個人私隱息息相關。

閱讀全文,歡迎加入會員

華文世界不可或缺的深度報導和多元聲音,了解更多

立即訂閱

已經訂閱?登入

本刊載內容版權為端傳媒或相關單位所有,未經端傳媒編輯部授權,請勿轉載或複製,否則即為侵權。

延伸閱讀