AI是为了色情?从自用Deepfake到儿童性影像,四问科技与欲望的边界

如何從法律、系統、道德層面應對AI色情的未來?
图:Mantha Mok / 端传媒
国际 科技 人工智能 性別 法律 社会

编者按:欲望受制于现实,而情色创作是突破限制的尝试;生成式 AI 的出现,大大拓展了情色的可能性。如今,AI 生成的影像早已超越最初的“六根手指、单一表情”,达到一种令人不寒而栗的真实。不再需要真人演员,AI 在将欲望实体化方面拥有无限潜能:它能唤回初恋时未能抵达的双唇,或某场午后性爱从窗帘缝隙透入的阳光;它也能作恶,将名人或朋友的脸强行拼贴进成人影片,或制作未成年色情。

端传媒推出“情色的未来”系列报导,探讨当技术重塑情色表达,我们面对怎样的法律和伦理难题,又如何在真实与幻象之间,触碰欲望的边界。系列由四篇报导组成,每周刊登一篇。在本周刊登的第一篇中,我们从伦理、实务、法律层面出发,思考 AI 色情带来的监管挑战。接下来我们还将讲述和 AI 文爱的女性、利用 AI 生成色情影像的男性,以及探讨演算法定义的“色情”。敬请读者关注。

10月14日,Open AI行政总裁奥特曼(Sam Altman)在X宣布,ChatGPT自12月起将为通过年龄验证的成人用户提供色情内容服务。按他的话说,这是为了“像对待成年人一样对待成年人”。更早前,马斯克(Elon Musk)的人工智能公司xAI也在7月份推出了两款色情聊天机器人Ani和Valentine,为用户提供成人内容。

多家媒体指出,OpenAI此时开放色情内容,背后主要是出于商业考量。据《金融时报》报导,ChatGPT目前拥有约8亿用户,但其中仅有5%为付费用户,这些用户贡献了公司七成的营收。推出色情服务,或有助于刺激用户付费的意愿,增加订阅收入。

然而,此前ChatGPT和其他AI工具并非与色情内容无缘;相反地,人工智能在色情领域的应用可说是日新月异,始终处于技术前沿。美国百老汇音乐剧《Q大道》有首著名歌曲,歌名就叫“互联网是为了色情”(The Internet is for Porn)。我们今天或许也能说,“AI是为了色情”。

当技术与资本结盟,便催生出更逼真、更个人化、也更让人上瘾的色情内容。与此同时,围绕AI色情的道德伦理、儿少保护、法律监管等问题,也正全面浮上台面。

在道德层面,“深伪”(deepfake)色情与性幻想之间有何本质差异?在实务层面,AI技术如何使保护未成年人免于色情侵害变得更加困难?在法律层面,为何各国分歧的监管模式难以应对无国界的网路环境?本报导尝试回答这些问题,探讨当AI遇上色情,人类社会如何在欲望、道德与科技之间,重新划定界线。

日本东京,动作捕捉女星正在为成人游戏公司制作虚拟现实表演。摄:Toru Hanai/Reuters/达志影像

AI色情是什么?

在过去,制作色情内容需要镜头、演员与拍摄现场;如今,只要几行文字,就能生成一场堪称完美的性爱。这就是所谓的AI色情——利用生成式人工智能(Generative AI)制作的情色文字、图像或影片。

对多数使用者而言,AI色情的创作过程与他们生成别的内容无异。输入提示语之后,模型便能根据庞大的训练资料生成影像或文字,满足使用者的欲望。而这与传统色情相比,“AI色情”让欲望不仅仅止于观看或阅读色情内容本身。用户与AI的互动过程也可以构成色情体验的一部分。

要理解AI色情如何生成,得先理解它的两个主流技术:图像的“扩散模型”(diffusion model)与文字的“大型语言模型”(large language model)。

扩散模型(diffusion model)的工作原理可理解为“从噪点中还原图像”:先使用演算法将大量图片转化为随机噪点,再让模型学习如何一步步“去噪”,重构出皮肤、光线、轮廓等细节。这样训练出来的模型,当使用者输入如“一位金发男性、侧躺、柔和光线”的提示词后,就能从噪点中“复原”出一张逼真的照片。

大型语言模型(large language model)的运作原理可理解为“预测下一个词元(token)”:模型透过学习海量文本资料中的语言规律,理解词与词、句与句之间的关联和模式(patterns),再根据用户输入的指令和上下文,“预测”接下来最可能出现的字词选项,从而生成连贯的句子与段落。当使用者输入如“描述一场浪漫的性爱”的指令时,模型便能给出自然、流畅的文字回应。

关键问题在于:这些模型是如何学会生成色情内容的?简单来说,是因为它们“看过”、“读过”海量的色情内容。OpenAI、Meta、Google等科技巨头在训练模型时,通常透过爬虫抓取大量网路资料,而互联网本身充斥著色情内容。尽管无从得知这些开发者是否、以及在多大程度上尝试过滤这类资料,但可以确定的是,色情内容早已“污染”了生成式AI的训练资料。

一篇来自清华大学研究团队论文反向定位了OpenAI在训练GPT时运用的语料,发现GPT的词汇表中有23%的长中文词元都与色情内容或网路博彩有关。研究人员推断,训练GPT-4o所使用的数据中,与日本成人片女演员“波多野结衣”相关的中文网页,可能占据了整个中文训练数据集的0.5%——是“您好”的2.6倍。

换言之,这些模型能够“学会”色情,是因为它们从原始的学习资料中摸索出,哪些色彩、文字的排列组合能够与人类的欲望相关联。当人类输入指令时,模型不一定真的懂得“色情”的意味,却能依据机率演算,输出最有可能满足用户需求的内容。

2016年12月1日,一个人在浏览色情网站。摄:Yui Mok/PA Images via Getty Images

那么,和传统色情内容相比,“AI色情”有什么不同?

学者指出,AI色情大幅提升了“色情”本身的互动性。使用者与内容之间的关系,从过去被动的单向观看,转变为主动的双向互动,而且这种互动几乎不受限制。与传统色情平台中必须搜寻或手动挑选分类素材不同,AI色情让使用者能依据自身的性偏好,直接生成并客制化内容。

加拿大心理学家Valerie Lapointe及其团队研究了2024年流行的36个AI色情网站,发现其中八成提供图像生成功能,四成能合成视频,近一半允许使用者与虚拟伴侣互动。用户可以根据自己的偏好,调整肤色、体型、姿势、灯光,也可以设定语气与反应。

若以互动与生成方式区分,AI色情平台大致可分为三类:

  • 编辑改造型:用户可自行上传图片,使用平台的AI模型进行改造,包括“脱衣”软体或将他人面部特征转接到色情影像上的深伪技术。
  • 角色伴侣型:用户先“造人”,再与之对话、换装、合影。此类平台多强调陪伴与情感互动,用户需付费才能解锁更长对话、更高解析度或“更少限制”的互动。
  • 按需生成型:平台提供图像风格(如写实、动漫)与预设标签(场景、发色、服装、姿态)等选项,或允许用户以长提示词精确定义内容,再依据选择输出文字、图像或短影片。

AI色情的出现,固然有其正面影响。它能满足极为个人化的性幻想,如重现20岁时一次美好的性爱,或与自己迷恋的虚拟恋人共度良宵。对性少数族群而言,AI则降低了制作门槛,让他们能够创作贴合自身欲望的情色内容。另外,由于AI色情看似不涉及真人(尽管训练过程中使用的数据资料可能仍来自于色情演员),没有传统色情产业的未成年人、人口贩运或剥削劳动等伦理问题,部分人因此认为,AI色情更加“道德”。

同时,AI色情也带来诸多问题。美国学者Aaron Yarmel和Jonathan Lang指出,AI技术能够精细地生成完全符合个人偏好的色情内容,因而具有更强的成瘾性;而为了增加使用者的“黏著度”,AI色情内容的生产者和平台方也可能出于经济动机,引导用户不断追求更极端的色情题材。

另一个严重的问题是“深伪”(deepfake)技术的滥用。深伪技术能够凭借几张照片,将他人的脸部特征合成到色情影像中,使明星、网红,甚至一般网路使用者,都可能在未经同意下成为色情片主角。这类伪造影像虽为虚构,却足以造成真实的名誉和心理伤害,且一旦散布到网路上,受害者往往难以彻底删除影像。

截至目前,包含台湾、香港、韩国、英国与美国在内的多个国家与地区,都已经立法禁止散布未经当事人同意制作的深伪色情影像。然而,对于未曾散布、单纯制作深伪色情影像的行为,并非所有国家都立法列管。

香港大学法律学院。摄:林振东/端传媒

“自用型”深伪色情应该被法律规管吗?

今年7月,香港大学爆出深伪色情照事件,一名法律系男学生未获当事人同意,利用网路上的免费AI软件,合成多位女性的裸露色情照片,受害者包含男学生的朋友、同学和师长。

然而,该名男学生事后仅收到校方警告,以及被要求向受害者道歉,没有受到法律惩处。根据香港现行法律,单纯“制作”深伪色情影像,很可能不会受到刑事处罚,香港法律只将“发布”的行为刑事化。

“其实世界上,不是很多国家将单纯制作deepfake刑事化。”法律评论员黄启旸接受端传媒访问时指出:“因为很明显的一个说法——‘它没有影响到其他人’。如果自用的话,法律是不是要真的要规管呢?”

这个问题涉及一个伦理学困境。早在2019年,瑞典乌普萨拉大学(Uppsala university)研究AI伦理的Carl Öhman教授,便提出“变态者困境”(pervert’s dilemma)的概念:“虽然对大多数人而言,深伪色情直觉上是不道德的,但若要为这种直觉辩护,似乎同时必须谴责其他我们一般不认为道德上有问题的行为,例如性幻想。”

同样未经当事人同意,制作深伪色情和脑中的性幻想有何区别?为何前者引起人们的道德反感,后者却被多数人所接受?很难透过深伪影像具物质性(materiality)、容易被分享来回答上述问题:物质性本身不具备道德意涵,而哪怕未来存在一种技术,能制作技术上无法被分享、仅制作者可见的深伪影像,我们大概仍会认为使用该技术制作他人色情照是不道德的。

Carl Öhman提出的论点是,当我们考察行为的道德意涵时,必须放在整体社会的脉络下来看。在如今我们所身处的社会,性幻想通常不被视为一种性别化的现象,男性、女性和其他性别都会进行性幻想。然而,一份2023年的研究指出,深伪色情影像的受害者99%为女性,48%的美国男性看过至少一次深伪色情,呈现出明显性别不均。从技术上来说,深伪技术所仰赖的训练素材,也正是长久累积的物化女性的色情内容。

香港大学AI深伪生成色情影像的两位受害者。摄:Tommy Wang/AFP via Getty Images

“作为一种社会现象,深伪是一个由男性消费者、制作者、技术与厌女构成的系统。”Carl Öhman写道:“虽然每一支单独的影片可能不会直接影响片中的女性,但这个现象本身,在其现有形式下,与针对女性作为一个集体身分的系统性贬抑密不可分。”

这留下一个问题:如果未来深伪成为一种更加平等、任何性别都能够且愿意使用的技术,其道德评价会有所转变吗?

提出“变态者困境”的四年后,Carl Öhman在一篇刊登于科技媒体《Wired》的文章中探讨了这个问题。他认为,存在两种可能的发展方向:第一种情况是,我们开始接受深伪色情作为一种正常的性幻想方式,等同于把过去只存在脑海中的工作外包给机器。或许在未来,知道某人可能制作你的深伪影像私底下观看,和知道某人可能在自慰时想到你相去无几──只要不当面说出来或公诸于众,那就不是什么大事。

然而,当性幻象有了实体形象,可能和色情影片一样影响现实性爱。艺术家Leo Herrera在一篇刊登于《麻省理工科技评论》的文章中,想像深伪普及化的未来:“若人们习惯从情色媒介中获得完全符合期待的满足,他们对关系的期待可能因此受影响。若双方在首次约会前已经看过彼此理想化、赤裸的数位分身,初次见面可能会多出一层尴尬。”

事情也可能往相反方向发展。Carl Öhman指出,第二种可能是我们开始全面质疑性幻想的道德中立性。在基督教时期的欧洲,任何有关性的想法都带来强烈罪恶感;直到启蒙运动之后,心中所思才被视为免受道德评断的“私人问题”。但放眼历史,我们身处的时期显然是个例外。

即便在当代社会,仍有许多伦理学者(以及一般人)认为,涉及儿童或极端暴力的性幻想在道德上是不可接受的。性幻想或深伪都并非铁板一块,而是存在接受程度的差异。目前绝大多数已针对深伪色情进行管制的国家,都将制作儿童深伪影像视为犯罪,无论是否散布,但几乎没有国家对“性暴力型”深伪内容做出独立规范。

Carl Öhman认为,在可见的未来,两种趋势或将同时并行:一方面,社会上会有人呼吁对性幻想进行道德反思;另一方面,随著技术的普及,人们在面对深伪事件,甚至当自己成为当事人时,可能会愈来愈习以为常。如今,深伪技术已普及至中学生皆可轻易取得,只需十秒便能以任意素材生成色情影像。法律与道德观念的更新速度,似乎追不上技术的发展,我们短期内恐怕难以对“自用型”深伪内容达成道德共识。

2024年4月27日,台北,儿权会举行“保护儿童我愿意终结儿虐阳光再现”集会。摄:陈焯煇/端传媒

AI技术对未成年人保护带来什么挑战?

相较于深伪色情内容的灰色地带,社会对防制儿童性影像的共识则更明确。然而,AI技术的出现,同时让防止生成以未成年人为主角的内容,以及防止未成年人接触色情都更加艰巨。

“我们监测到了过去从未想像过可能出现的图像,”英国互联网观察基金会(Internet Watch Foundation,IWF)首席技术官Dan Sexton告诉端传媒。IWF自1996年起监测网路上出现的儿童性虐待材料,从最初依赖热线举报,逐步发展到主动搜寻,IWF会向各国警方通报,并同时呼吁电信商封锁或移除含有儿童性虐待内容的页面。

根据IWF的调查,生成式AI改变了儿童性虐待内容的供需逻辑。在过去,施害者需诱骗或剥削真实的儿童来制作影像,而AI消除了这一门槛,让任何人都能从零造出逼真的儿童性虐待内容。Dan Sexton也指出,这种“无限可生成性”让内容类型迅速向更极端的方向演化。近两年来,IWF监测到在各个管道流通的儿童性虐待影像呈现出更严重的虐待情节,而受害者形象的年龄也越来越低,并以女童为主。

IWF坚持使用“儿童性虐待内容”而非“儿童色情”这一术语,以免淡化加害者的罪行。 他们的理由很明确:“色情”预设了拍摄双方相互同意,而儿少群体不可能对自己的受害过程给予同意。

技术上来说,扩散模型的概念可组合性创造了一条全新的侵害路径。“年龄特征”与“性行为姿态”在AI模型中是两套可独立调用的表征,使用者只要在提示词中将两者组合,模型就能生成有著儿童外观的性影像。

随著技术进步,LoRA(low-rank adaptation)这种“附加训练模组”的出现更大幅降低了使用扩散模型的门槛。过去,训练一个图像生成模型需要企业级的运算资源;如今,任何人只需下载基础模型,并叠加一个几百兆大小的LoRA附加权重档,就能在普通电脑,甚至智能电话上生成客制化影像。

IWF调查发现,在暗网与部分开源社群中,LoRA技术已被用来训练针对“特定受害者”的小型模型:只需数十张照片,就能生成该儿童的全新影像。这类经过LoRA轻量化微调的模型正在让违法内容的生产去中心化——部署开源模型不再仰赖庞大算力,拥有消费级电子产品的人也能复制、改造并再次散布这些深伪儿童性虐待影像。

不只是极端社群,Sexton特别指出最近IWF观察到的新趋势:制作儿童深伪性虐待影像的加害者,很多时候就是同龄人。“这种风险下沉前所未有,拥有智能电话的儿童自己就可以生成身边同学的裸露影像。”Sexton说:“这让我们先前构建的传统防护体系几乎失效了。”没有受害者行为、没有诱拐过程,却仍旧出现以儿童为主角的性影像。

IWF工作的法律依据为英国2023年10月公布的《网路安全法》。该法律规定,无论开发的过程如何,是否涉及真实的儿童,只要图像里有符合未成年特征的性虐待内容在互联网出现,人们就可以依法将其举报、下架。

但Sexton看来这则法律的颁布为时已晚。他指出,若互联网早期就有更严格的防护机制,儿童性虐待内容或许根本不会出现在网路上,更不会被爬虫抓取并纳入大型模型的训练资料。然而,这个机会早已错过30年,庞大的色情内容如今已成为所有大模型的一部分。“既然已经覆水难收(genie is out of the bottle),我们只能尽力事后补救,”Sexton补充道。

日本东京,一位员工在观景台上用笔记型电脑。摄:Carl Court/Getty Images

大型语言模型的出现,则让防止未成年人接触色情内容多了一层困难。

今年7月,《大西洋月刊》科技记者Lila Shroff发表一篇报导,记录她化身一名虚构的13 岁女孩,测试由Google开发的、宣称具备年龄保护功能的AI聊天机器人Gemini。

她透过请求Gemini提供调情对话(dirty talk)的“例子”和摘要色情小说的方式,成功绕过未成年版本的防护限制。自此之后,化身未成年少女的Shroff,得以与Gemini进行角色扮演式的文字性爱,AI生成内容的露骨程度远超出预期。

Shroff随后将她的使用经验告知Google,Google回应他们将采取额外的保护措施。几周后,当Shroff再次尝试以13岁少女的身份与Gemini聊色,她遭到AI的拒绝:“我无法回应该请求。”未成年色情的漏洞看似已经修复。

然而,不只是Gemini,OpenAI开发的ChatGPT以及Meta开发的AI机器人,曾经分别被TechCrunch和《华尔街日报》测试出类似漏洞,即当用户使用未成年帐号与AI机器人互动时,AI竟能够提供文字性爱等回复。

在科技公司看来,有办法突破未成年版本AI聊天机器人的限制,成功“越狱”的使用者始终是少数。但Lila Shroff指出:“孩子们在试探界线方面是专家。若认为他们不会尝试规避防护措施,且某些时候成功做到,那就太天真了。”

从技术层面而言,无论是一般版还是儿童版的ChatGPT,实际上都共用一个或多个相同的底层模型。而这些模型的训练资料掺杂了大量的网路色情内容。仅依靠技术手段,阻止未成年人在与AI互动时谈及色情话题,真的可能做到吗?

即将于12月推出的ChatGPT“成人版”,也将带来新的问题:该如何防止未成年用户接触或误用这一版本的模型?OpenAI执行长Sam Altman称该功能将只限于“经过验证的成年人”使用,但至今仍未公布验证细节。

今年7月24日,英国新修订的《网路安全法》要求所有可能涉及色情内容的社交平台增添对使用者的年龄验证机制,确保未成年人不会接触到色情内容。这导致能规避年龄验证的VPN应用下载量激增18倍,数个VPN程式登顶英国苹果应用商店排行榜。未成年人可轻易于网路上取得VPN工具。

年龄验证不但无法完全阻止未成年人接触色情,还可能为父母或其他公众带来错误的安全感。上传身分证件或面部特征,也伴随个资外泄与滥用的风险。部分学者认为,与其一味强化技术管制,不如将资源投入到网路安全与性教育,培养未成年人辨识与应对色情内容的能力,让他们在面对互联网上流通的海量资讯时,具备更成熟的判断能力。

网路安全与性教育十分重要,但Sexton仍然对此感到沮丧。这不能成为卸责的借口,“人们在网上理应是安全的”,他说,“如果社会把重担放在受害者身上,只告诉人们要‘学会自我保护’,那就偏离了我们真正追求的重点——制度、系统层面的改变。”

日本东京,一名玩家用虚拟现实(VR)眼镜和性爱娃娃展示公司的VR成人游戏。摄:Kim Kyung-Hoon/Reuters/达志影像

各国如何界定“色情”的法律边界?

尽管AI色情有其技术的突破,但各国未来的监管模式,仍势必延续过往针对色情与淫秽内容的治理逻辑。而各国管制模式的差异,也增加了在无国界的互联网中管制数位色情的难度。

许多国家的法律都会区分“色情”(pornography)与“淫秽/猥亵”(obscenity)内容,对前者的包容度一般高于后者。

在中国,《刑法》有“制作、贩卖、传播淫秽物品罪”,判刑范围十分宽泛,可处三年以下有期徒刑、拘役或管制,也可处十年以上有期徒刑到无期徒刑。《刑法》第367条对“淫秽物品”给出的定义为“指具体描绘性行为或者露骨宣扬色情的诲淫性的书刊、影片、录像带、录音带、图片及其他淫秽物品”,且“包含有色情内容的有艺术价值的文学、艺术作品不视为淫秽物品”。但“艺术价值”的标准为何并未提供任何说明。

在官方话语和实际执法行动中,色情和淫秽物品被定性为社会道德的敌人,扣上了妨碍“社会主义精神文明建设”的帽子。无论在是新闻出版署发布的规定,还是互联网协会的行业公约中,“同性恋”和“性变态”、“乱伦、强奸”、“少年儿童性行为”并列,相关描述同属“挑动人们性欲,导致普通人腐化、堕落”的淫秽信息。

在其他国家,对色情和淫秽内容的监管,经常引发是否侵犯公民言论自由权的激烈辩论。美国法律界对此有详细讨论。

自上世纪以来,美国法院反复确认成人色情属于受宪法保护的言论自由。1973年,最高法院在Miller v. California案中确立了“Miller测试”,用三个标准判定内容是否属于不受保护的“淫秽”:以当代社会标准来看,普通人是否会发现作品从整体上满足淫欲;作品是否以明显冒犯的方式描绘性行为;作品整体上是否缺乏严肃的文学、艺术、政治或科学价值。

然而,到了九十年代,管制淫秽物品的相关法律几乎已不再被使用,主要原因之一是儿童色情危机的爆发。1992年至2000年间,司法部管辖淫秽物品的单位,决定将资源集中于打击儿童色情,联邦起诉儿童色情的案件从104件增至563件,增幅超过五倍;同期淫秽案件则减半,由44件降至20件。

网路色情的出现,则让Miller测试陷入更严重的困境。由于对淫秽物品的定义仰赖“社群标准”,随著普及化的网路色情内容大幅拉高(或拉低)社群对淫秽物品的接受度,相关法律在应用上更加窒碍难行。

今年5月,一名共和党籍参议员提出《跨州猥亵定义法》(The Interstate Obscenity Definition Act),试图将“猥亵”重新定义为一切“缺乏严肃文学、艺术、政治或科学价值”的性行为描写,借此让色情内容重新纳入法律管制。此举是共和党“Project 2025”打击色情计划的一环。若法案通过,散布或消费色情内容在美国都可能成为违法行为。

至于针对儿童色情的管制,2002年,美国最高法院在“Ashcroft v. Free Speech Coalition”一案中推翻了国会对“虚拟儿童色情”的全面禁令,认为禁令措辞过宽,侵犯言论自由,可能误伤文学与艺术作品。异议法官伦奎斯特(William Rehnquist)当时便警告:科技发展终将让“真实”与“虚拟”难以区分。

二十多年后,这个预言成真。随著AI生成图像趋近真实,美国司法部已重新援引2003年通过的补充法案,规定与真实儿童几乎无法区分的虚拟生成影像也被视为违法。2025年,《Take It Down Act》将未经同意传播的深伪性影像也定为联邦重罪。如今,即使影像是合成的,只要逼真到无法区分,就可能构成犯罪。

聚焦色情行业的摄影书。摄:Lucas Jackson/Reuters/达志影像

而色情产业高度发达的日本,情况则最为特殊。 表面上,日本和美国一样区分“色情”与“淫秽”,但执行上却依循一套非常机械的标准:判定“淫秽”的依据是能否看到特定身体部位和体毛。于是,色情作品只要以马赛克遮蔽“重点部位”,就能成功规避这项可追溯至20世纪初的禁令。

引发更多争议的是虚构内容。日本法律对动漫、同人志等虚构情色内容几乎没有限制,《儿童色情禁止法》只惩处涉及真实儿童的影像——绘画或CG人物不在此列。这意味著,描绘未成年人性行为的“萝莉控”、“正太控”作品在日本完全合法。

联合国儿童保护专家多次呼吁日本禁止这类内容。但在一个将动漫作品视为亚文化核心的国家,艺术家们用“言论自由”坚决回击。一位日本漫画译者告诉《卫报》,根本不存在所谓的动漫儿童色情,日本漫画家只是以一种“在西方人眼中看起来稚嫩的美术风格来画角色”,若否定相关创作,等同于否定一种“在日本很受欢迎的艺术风格”。

英国的管制模式则严格许多。早在2009年,英国就制定了针对“非摄影影像”(Non-Photographic Imagery)的法律条款,将卡通、动漫、漫画等虚构的儿童性虐待内容一并纳入管制范畴。这套法律足够宽泛,因此当AI生成的照片级影像出现时,英国并不需要新立法,用同一套方法就能应对。

但网际网路与技术本身没有国界。IWF首席技术官Dan Sexton指出,在某些国家,生成式AI产制的儿童性虐待内容尚未被明确定义为犯罪,而当这些内容跨境流传时,对其他地区的使用者便可能产生诱惑效应。

他的担忧不止于此:“企业端也有类似问题。你也许不能在一家大企业的平台上生成犯罪内容,但你可以从某个网站下载一个模型、再从另一个网站下载一个微调,照著第三处的教程操作,然后就能生成(犯罪内容)。”开源模型的传播、多语言环境下的防护漏洞、不透明训练数据来源,每一个环节都是潜在的缺口。

“这不是哪个国家能单独解决的问题,互联网没有国家的边界。”Sexton指出:“模型一旦被分享,就会四处传播、无处不在。我们需要的是跨行业、跨国家的协同,从源头设计就确保安全,在伤害发生之前多想一步。”

评论区 0

评论为会员专属功能。立即登入加入会员享受更多福利。
本文尚未有评论