端传媒七周年国际科技深度

人脸识别到底是甚么?演算法是不是无所不能?

人脸识别系统无处不在,我们似乎已无法抗拒一举一动被记录下来;但这些模拟人脑的演算法,其实远非牢不可破。

2018年10月,中国北京一个保安科技博览展。

2018年10月,中国北京一个保安科技博览展。摄:Thomas Peter/Reuters/达志影像

特約撰稿人 朱孝文 發自倫敦

刊登于 2022-09-06

#人面识别#端传媒七周年#监控#人脸识别#科技

【编者按】2019年,BBC的一套记录片拍到了伦敦警察试用人脸识别系统的情景:一名(貌似有中东血统的)男子在摄像头前把衣领拉高,结果被警察截停审问。行人质疑警察截查该男子的理由,警察说是因为“他看到镜头就立即尝试遮脸”,所以他们认为他形迹可疑。这个不想让摄像头拍到自己的男子,最终还是被警察拍了照。

人脸识别不止在中俄等威权国家蓬勃发展,即使在民主社会,这种技术还是引起了许多关于私隐﹑人权的争议,而且社会对个体的保障似乎远没有科技发展那么迅速。端传媒九月将刊出一系列专题报道,探讨中国和俄罗斯成为监控社会之路。这篇文章是系列的第一篇,将解释人脸识别的原理,以及个体“逃离”识别系统在技术上的可能性。请持续留意端传媒报道。

(朱孝文,人工智能研究員)

她打开了自己的相簿,把一张自己早两天拍下的生活照,从桌面上拉到网站的搜寻框。不消数十秒,网站显示了一堆搜寻结果:那是从互联网上九亿张图片中找出来的她的照片,里面有一些连她自己也未看过,有些她甚至已经戴了口罩或太阳眼镜。更甚的是,里面一些图片来自色情网站,虽然主角并不是她本人。这是《纽约时报》编辑Kashmir Hill在2022年5月测试一个名为PimEyes的人脸识别搜寻网站时的经历。我让端的编辑看看她的照片在PimEyes显示了甚么结果,她除了看到自己的照片,搜寻结果中也有跟她相似的陌生人(而且也有非她本人并来自色情网站的照片,正如Hill所言,单是系统认为这“可能是她们”,就已经够令人不安了)。

十多年前谷歌Google Photo推出试用服务,大概是我第一次见识人脸识别系统潜力的契机--我将数千张照片拉到平台上,系统自动将数百个被拍摄者辨认出来。最让我惊讶的,是同一个人跨越不同年龄段的照片都被它认出来了,例如童年时期的我与大学时期的我,Google的系统都能认作同一个人(虽然有少量我的照片被它辨识作另外两个“我”,特别是侧面照),在当时确实非常厉害。现在人面辨识已在各种应用上无处不在,从网上申请银行帐户时所提交的自拍所触发的“电子模式认识你的客户”(Electronic Know Your Customer,eKYC)验证,到辨理签证及各国机场入闸时的资料核对,都用上了这种技术。

过去十年,随著深度学习的发展,人脸辨识技术也愈来愈成熟。现在它能从茫茫人海中将个人准确锁定,如果被没有权力制衡的组织使用,将会是我们每个人的恶梦。人脸识别系统自2010年代晚期开始普及进北京社区,根据外媒报道,这个系统也在不同城市扫描居民面孔,以判断是否有维族人。配合社会信用体系,人脸辨识能令个人私生活无所遁形。2022年初,国际特赦组织也发布了研究报告,指纽约警方在黑人和拉丁裔社区的许多天眼有人脸辨识功能,是对个人自由的侵犯。而近年大行其道却名声败坏的DeepFake演算法,也与个人私隐息息相关。

阅读全文,欢迎加入会员

华文世界不可或缺的深度报导和多元声音,了解更多

立即订阅

已经订阅?登入

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读