日报

如何让AI安全可靠?Google列出了需要注意的五大问题

刊登于 2016-06-23

Google 列出防止 AI “杀人”的五个关键点。
Google 列出保障AI机器人安全可靠的五个关键点。

全球科技巨头 Google 不仅在人工智能(Artificial Intelligence,AI)领域发展迅猛,他们同时也专注于这项技术的安全性问题。Google 旗下的研究团队 Google Brain 近日联合斯坦福大学(Stanford University)、加州大学伯克莱分校(UC Berkeley)以及非盈利研究公司 OpenAI 的科学家发表了一篇题为 Concrete Problems in AI Safety 的论文,列举出为保证 AI 机械人安全及可靠,在研发阶段需要考虑的五大问题。

这篇文章以清扫机械人(Cleaning Robot)为例,将这五个问题解释如下:

  • 如何避免 AI 在完成目标的时候,不破坏其所在的环境?负面例子:清扫机械人可能会打翻自己前进路上的花瓶,这样它就扫得更快了。
  • 如何避免机制被破解,AI 在行为上出现博弈?负面例子:清扫机械人可能会将地上的赃物用其它东西遮挡起来,让自己看不见,这样它就不用清扫了。
  • 如何在训练过程中,让 AI 能有效理解指令,避免对用户造成干扰?负面例子:清扫机械人若不能有效理解清扫任务,在遇到每一件物品的时候都要求用户进行判断,用户会受到严重干扰。
  • 如何保证 AI 在自主学习时不做出超过安全范围的“探索”,产生负面影响?负面例子:清扫机械人在试验拖地策略时,可能会将湿拖把放到电源插座上。
  • 如何让 AI 能够适应工厂测试环境与用户使用环境的不同?负面例子:清扫机器人在工厂测试时学习到的行为方式,包括速度、力度等,在用户的普通房间里可能会造成危险。

我们相信 AI 技术对人类应该是极为有用及有益的。但对任何新技术而言,负责任的做法是,考虑其潜在的挑战以及如何尽可能地处理相应的风险。

论文作者之一、Google 科学家 Chris Olah

这篇论文的作者之一、Google 科学家 Chris Olah 随后发表文章指,尽管 AI 在安全隐患方面的问题已经引起足够多的公众关注,但此前的讨论大都是假设性及推测性的。他认为机器学习(Machine Learning)研究应在这方面引起更多注意,并开始研发实用方法使得 AI 系统更加安全可靠。

今年3月,韩国棋手李世石在举世瞩目的“人机围棋对弈”中负于 Google 旗下 Deepmind 公司开发的 AI 程式 AlphaGo 后,不少人对 AI 的发展程度感到震惊。本月初,Deepmind 与牛津大学的研究人员联合发表论文,提出一种算法框架,希望 AI 机械人在伤害人类或环境时,可以被关机——他们将其称为“红色按钮”。

50 %
英国央行去年表示,未来10年到20年间,英国和美国将有接近50%的劳动力被机械人取代。

声音

我们很有必要给人工智能加上一个“红色按钮”,以阻止其伤害其他人类和环境……但人工智能也可能学会如何防止自己被人类关机,比如让“红色按钮”失效等。我们的论文提供了一种如何让人工智能无法学会这一招的可行方法。

Deepmind 和牛津大学的合作论文

计算机的视觉如果比人要更好,为什么还要人去开车?应该让机器开车。现在是医生看 X 光,未来如果让机器看是否会做出更准确的诊断?在开源之后,如果全世界的聪明人都将给 Google 很好的回馈,Google 会有更好的发现,让产品和服务更完美。

Google 母公司 Alphabet 执行董事长 Eric Schmidt

机器学习

机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜寻引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机械人等领域。(资料来自维基百科)

来源:MIT技术评论TheVergeGoogle Blog

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读