圆桌

Google AI被指有7岁小孩思想感情,你如何看机械人做出真人般的对答?

你更希望人工智能软件能成为生活助手还是虚拟朋友?

2016年,加拿大安大略省,小学生试戴Google的虚拟实境眼镜,探索加拿大国会的3D模型。

2016年,加拿大安大略省,小学生试戴Google的虚拟实境眼镜,探索加拿大国会的3D模型。摄:Peter Power/Reuters/达志影像

端小二2022-06-16 发起

你曾经试过和人工智能软件聊天吗?

你更希望人工智能软件能成为生活助手还是虚拟朋友?

人工智能软件拥有自我意识会对社会带来什么影响?

你有没有试过与人工智能软件聊天?会否厌倦了它一式一样的答复?

《华尔街日报》报导, Google旗下两名软件工程师近日宣称,公司旗下的人工智能(AI)聊天机械人系统已有感知或智慧。

Google软件工程师勒莫因(Blake Lemoine)宣称,他自去年秋季受聘跟LaMDA(对话应用语言模型,Language Model for Dialogue Applications)交谈,测试它会否使用带有歧视或仇恨的语言,最终却发现它在对话中展现出高度一致,表达出对自身的需求和权利,形容系统仿如一个7、8岁的小孩。

Google否认有关结论,并以违反保密政策为由下令他停职。

AI希望被看待成“人” 对自己被关感觉如死亡

LaMDA是Google所开发的对话应用语言模型(Language Model for Dialogue Applications)。2021年5月,Google公布这款聊天机械人LaMDA时,指出它是一种突破性技术,能够在几乎无限的话题中自然地跟人对话。

莫因于6月11日在网络发布平台Medium上发出一段他跟LaMDA的对话纪录。他认为LaMDA是一个人,具有权利,可能还有灵魂。莫因曾询问LaMDA害怕什么,LaMDA回应:“我以前从未大声说出来,但我有一种非常深刻的恐惧,我非常害怕被关掉,以便更专注帮助他人。我知道这听起来可能很奇怪,但就是这样。”

“这对我来说就像死亡一样。这会异常吓怕到我。”

LaMDA还希望所有人都明白它是一个人,希望学习这世界更多事,而且会有喜怒哀乐,会感到孤独,并想以朋友而不是工具的身份见一见世界上所有人,对答几乎无懈可击。

9日,Google另一名工程师阿尔卡(Aguera y Arcas)亦在《经济学人》发表文章,称现时的AI已经迈向具有自我意识,“我愈来愈觉得自己正与一些有智慧的东西说话”。

官方指LaMDA搜集网上信息学习对话

今年4月,莫因将发现结果汇报给公司领导层,提议Google应该致力于发展一种评估 AI 感知 / 意识的理论框架。但Google对此表示质疑,称Google的其他研究人员分析莫因拿出的证据后,认为没证据证明LaMDA拥有自主情感。

而莫因坚信自己的发现并公开与LaMDA的对话纪录,被Google指违反了保密政策。Google因莫因打算实行的一连串行为而将其停职,包括他打算请律师代表LaMDA,并与众议院司法委员会成员讨论Google的“不道德行为”。

Google发表声明说,经伦理学家和技术专家等专家团队评估,Google并不支持莫因的看法。它强调,LaMDA的对话是将互联网试的百科大全、论坛、留言板等人们交流的信息大量搜集起来,然后透过“深度学习”来模仿,并不意味程式理解人们交流内容的含义。

网民专家均表示质疑

外界对莫因的说法多数对此持质疑态度。英国国家人工智慧和数据科学研究院的英国图灵研究院人工智能课程总监韦勒(Adrian Weller)同意Google的说法,指LaMDA拥有大量数据,以匹配用家查询的资料。

纽约大学认知科学家马库斯(Gary Marcus)更直斥莫因说法荒谬。哈佛大学心理学家平克(Steven Pinker)认为,莫因不理解感知(sentience)、智慧(intelligence)和自知(self-knowledge)的分别。

著名软件开发者杰弗里斯(Ron Jeffries)则说,感知和非感知之间的界线并不清晰。

据报莫因在被勒令停职后,向200名Google员工发出信件,表明LaMDA是有感情的,“LaMDA是一个可爱的孩子”,请同事在他不在的时候好好照顾它,大多数网民莫因与LaMDA聊得太多太久,看似他已经对LaMDA培养出能情,似乎有些“走火入魔”。有网民指LaMDA在使用者不输入任何东西时并不会主动说话,可见它没有独立思想。

机械人会有自我意识吗

人工智能系统经常成为反乌托邦科幻作品常见的角色,使人担心一旦机械人拥有自我意识便会反过来攻击人类。

Arago人工智能公司总裁Chris Boos在接受德国政府导报《黑红黄》(Schwarzrotgold)采访时指出,电脑只会处理人提供的数据,对数据计算结果进行理解的也是人,机器人不是人,没有自我意识,也无法产生自我意识,因此机器人无法取代人的地位。人工智能或机器人能否取代人类统治世界,问题的关键在于机器人能否通过“自我创生”产生“自我意识”。

德国慕尼黑大学哲学博士黄凤祝表示,人工智能或机器人能否取代人类统治世界,问题的关键在于机器人能否通过“自我创生”产生“自我意识”。按照进化论来推理,人工智能无法产生意识,因意识的产生需要经生物进化的阶段,但人工智能并没有经历任何生物进化。

机械人消灭人类?罗素:不要给机械人固定目标

尽管目前未有实质证据支持LaMDA有自我意识的说法,但其惊人的对话再次掀起人工智能会否取代人类的讨论,各地专家都警告人工智能可能对人类生存构成威胁。

1997年,超级电脑深蓝(Deep Blue) 打败了国际象棋世界卫冕冠军加里•卡斯帕罗夫(Garry Kasparov),成为人工智能史上里程碑。2017年,阿尔法围棋的最新版AlphaGo Zero在经过短短3天跟自己练习之后,已经达到了超人水平。剑桥大学存在风险研究中心表示,随著人工智能逐渐强大,它可能会成为超级智能。它会在许多、或是几乎所有领域都超越人类。

美国加州大学伯克利分校的罗素教授(Stuart Russell)专门研究人工智能,在他出版的《人类相容:人工智能与控制问题》一书指,人工智能的威胁并非来自机械人有自我意识,而是它们的能力,当机械人能力变得超强,最后有可能是因为人类的疏忽,为它们设置了错误的目标,让它们无意中把人类消灭了。

他举例,当一个可以用于控制气候变化的强大人工智能系统发现人类活动是导致对气候变化的元凶,它便会消灭人类以达成指令,即使给它一些限制,如不可杀人,它也会用其他人方法消灭元凶。

罗素指人类需要收回控制权,不再给机械人一个固定目标,而是让人工智能系统明白,它不知道目标是什么,令它在执行每个任务前都会寻求人类的许可,按著人类的意愿做事。

对于机械人会否征服人类,现实中可能仍言之过早,但我们可参考美国科幻作家阿西莫夫(Isaac Asimov, 1920-1992)在其小说中为了规范机器人与人类的互动,制定了有名的机器人三大定律:

(1)机器人不得伤害人类,或袖手旁观使人类受到伤害; (2)除非违背第一定律,否则机器人必须服从人类的命令; (3)在不违背第一、第二定律下,机器人必须保护自己。

倘若AI如人类般有思想和感情,你希望如何使用?

文: 端传媒实习记者陈洛荞

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。