跳至内容

人工智能训练师孙羽茜:当AI学会说 NO,以及其他更真实的问题

“游戏依赖于人的参与才成立,人工智能也是如此。它需要人类陪伴才能成长,我们需要对它投入情感的付出和教育。”

人工智能训练师孙羽茜:当AI学会说 NO,以及其他更真实的问题

编者按:目前关于人工智能、尤其是聊天机器人的讨论中,缺乏和游戏相关的严肃对话。这一部分是因为游戏领域有自己的垂直媒体和社群,另一部分是因为游戏的娱乐性太强,在严肃讨论中往往会被置后。但其实,游戏对人工智能的应用既有深厚的历史又有广泛的案例。在我认识的游戏设计师和艺术家中,孙羽茜是这个领域中最有趣的一位,她很早就在作品中加入聊天机器人的NPC角色,不断探索如何将人工智能设计得更能赋予玩家满足感和意义感。从早期创作对玩家爱答不理的聊天机器人李白,到在在线社群帮助玩家去未来旅行冒险的Wander,再到多人游戏中提供沉浸体验的冒险家NPC David 和 Catherine,孙羽茜一直在实践用虚构的AI传递真实的温度。在创作游戏作品和艺术作品同时,她也在攻读和这个领域相关的博士学位。这期 Game On 访问了孙羽茜,详细谈她在开发聊天机器人过程中的亲身经验、观察到的奇妙之处和衍生问题,比如 AI 学会说 NO 之后人类的反应,以及在 AI 取代画师之外更为真实迫切的问题,以下是访问后整理的文字:

大家好,我是孙羽茜。

我目前在英国皇家艺术学院攻读博士,专注研究聊天机器人。和这个领域的其他学者相比,我的切入点也许比较特别,我是用创意和艺术的角度展开工作的,我的很多作品涉及电子游戏相关内容。

我认为电子游戏很像人工智能科技的试验场,所以在我的研究中,聊天机器人会被放置在一个虚构的背景之下工作,譬如说在一个故事中担当虚拟角色,刺激玩家的反应和反馈。而我则会观察和分析这种互动和传统互动有什么区别,研究这种虚构的人工智能 NPC 能否有效地给人类讲故事,使人类与之产生情感联结。

本刊载内容版权为 端传媒编辑部 或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。