评论国际科技深度

“人工智能会让人类灭绝”——围绕这个问题的最新讨论都说了什么?

“降低人工智能导致人类灭绝的风险,应该与大流行及核战争等其他社会风险一样作为全球优先事项。”

2017年5月6日,一名女子在观看由人工智能生成的历史档案。土耳其艺术家Refik Anadol的Archive Dreaming装置,整合近200万份历史档案,将其变得可视化。摄:Chris McGrath/Getty Images

2017年5月6日,一名女子在观看由人工智能生成的历史档案。土耳其艺术家Refik Anadol的Archive Dreaming装置,整合近200万份历史档案,将其变得可视化。摄:Chris McGrath/Getty Images

布犁

刊登于 2023-06-19

#人工智能#评论#科技

在ChatGPT-4的大模型发布后,连续好几个月来,到处都是讨论人工智能的声音。5月30日,英国大小报纸的头条,是一份由超过300位各界人士参与的“AI可能导致人类灭绝”的联署声明。签署者也包括了大量AI科学家和前沿研发人士。

AI的缔造者们开始担心AI毁灭人类了?这份声明很短,只有一句话,翻译过来就是:“降低人工智能导致人类灭绝的风险,应该与大流行及核战争等其他社会风险一样作为全球优先事项”。

这样的讨论大概都说了些什么呢?

我们将面临哪些AI风险?

牵头起草这份声明的,是一个位于美国的非盈利机构,叫做“AI安全中心”(Center for AI Safety)。他们的主要工作是研究、讨论和倡导AI安全问题,促进相关监管和立法。

他们的主页上列举了AI将可能带来的一些最严重的安全威胁。有些看起来似乎有些危言耸听,但更多的则让人紧张:

列于首位的风险,是AI的军事化——这倒不是说会像科幻片里那样,出现一个超级AI大脑要灭绝人类。这样的风险暂时不大。但颇为可能出现的情况,是各国都可能用AI参与武器研发和军备升级,并将AI装入一些武器系统,人工智能将被拿来服务于政治野心和战争。

另一件较为人知的风险是AI大模型将制造和传播更多虚假信息。目前,ChatGPT的问答中就已经显示,AI会在交谈中产生不少和事实不符的内容,比如让它解释一位人物时,AI有机会虚构人物的一些生平细节。有一些最新的研究就指出,AI其实能做到“表里不一”和主动“撒谎”。甚至在大数据模型给我们编造一个不存在的错误答案时,它可能自己对正确答案有一定的理解。

但这只是虚假信息的其中一面,进一步发展的大模型还可能被用来自动生成容易让人们相信的政治谣言或政治宣传,从而更深地影响社会和政治。

阅读全文,欢迎加入会员

华文世界不可或缺的深度报导和多元声音,了解更多

立即订阅

已经订阅?登入

本刊载内容版权为端传媒或相关单位所有,未经端传媒编辑部授权,请勿转载或复制,否则即为侵权。

延伸阅读