跳至内容

机器人学会了我们的偏见怎么办? 比尔.盖茨还说机器人要依法纳税、放假

虽然人工智能还处于发展初期,但立法监管人工智能已不是未雨绸缪。

“算法”真的冷酷而准确吗?事实证明,它也许能摒除人类的主观情感,但机器学习系统所吸收的数据和知识却来源于人类,包括人的偏见。由人类创造的人工智能,目前还摆脱不了人性局限的阴影。他们学习了知识,却无法摒弃认知偏见。

不少案例显示,人工智能(Artificial Intelligence ,简称AI)如果存在歧视倾向,会严重影响人们的生活。一名22岁的亚裔DJ在申请新西兰护照时遭拒,原因是他眼睛较小,处理照片的系统自行认定他“双眼闭上”,不符合相片要求。微软开发的聊天机器人Tay 在上线24小时后,就开始发表“希特勒没有做错事”等种族主义言论。有研究曾指出,Google在第三方网站上的广告中,向男性求职者展示的招聘广告待遇普遍比女性求职者高。哈佛大学肯尼迪学院发布的分析报告也指出,目前针对犯罪倾向性预测的人工智能系统对黑人群体存在偏见,而这种对人种肤色的偏见无法通过调整机器学习的策略和算法得以解决。

机器学习 指计算机通过对大型数据集进行运算分析,从而教会自己如何执行任务。机器学习中一个最前沿的分支是“深度学习(deep learning)”,也是今日推动人工智能发展的主要技术。

这也是为什么人工智能仍处于发展“幼年期”,就已经有提倡人工智能监管的声音出现。

本刊载内容版权为 端传媒编辑部 或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。