近日,香港大学社会工作及社会行政学系博士生白逸铭(Yiming Bai)、港大社会科学院副院长叶兆辉共6位学者合著的学术期刊文章被揭出现「AI 幻觉」(AI Hallucination),多项参考文献为虚构和不存在,引发学术诚信和 AI 在学术界应用不善的争议。
11月8日,一个名为「Katy Wong」的帐号在 Threads 上发文,附上该论文的连结,称从朋友口中得知港大有几位教授发表论文,当中包含大量的 AI 幻觉,「大家不妨自己去 references 度 click 吓 d hyperlinks,大部分都系死 link,Google Scholar 都 search 唔到嘅。(大家不妨自己去 references 按进那些超连结,大部分都是失效连结,Google Scholar 都搜寻不到)」该帐号又引述他朋友指有同事曾匿名举报,但大学表示不接受匿名举报,所以才代他们公开事件。
是次涉事论文为「Forty years of fertility transition in Hong Kong」,分析了香港近40年的生育率,从中推断结婚率下跌为生育率下跌的主要驱动力。根据端传媒统计,论文共列出61项参考文献,包括学术论文、书籍、立法会文件和不同机构的报告等,当中至少有20多项为不存在——例如点击数位物件识别符(DOI)或 Google Scholar 超连结后显示「DOI Not Found」和「Sorry, we couldn't find this article」。而其中一篇虚构论文的署名作者为叶兆辉,在内文中亦有引注(in-text citation)。
此外,参考文献中有一部分文献未有按作者姓氏的英文字母排列,亦似乎不合乎格式规定。


涉及AI虚假论文题为《Forty years of fertility transition in Hong Kong》,作者包括港大社会工作及社会行政学系博士生白逸铭(Yiming Bai)、港大社会科学院副院长、社会工作及社会行政学系讲座教授叶兆辉(Paul Yip)等。网上截图
作者、期刊均未发现,叶兆辉致歉:「责任在于我同学生」
论文于今年10月17日刊登于英语中国人口学学术季刊「China Population and Development Studies」(CPDS)。CPDS 由中国国家卫生健康委员会主管和「中国人口与发展研究中心」主办、德国出版社 Springer Nature 出版。叶兆辉是 CPDS 的编辑委员会成员之一。「中国人口与发展研究中心」的前身为「中国人口情报资料中心」,隶属于国务院计划生育领导小组办公室,是首个国家级人口情报研究机构。
而根据 Springer Nature 网站显示的投稿程序,当中一环为期刊(是次事件上,即 CPDS )的编辑阅读文章并决定是否进行同行评审(peer review),而大多数的文章会经过两位或更多属同一领域专家评审。
事件引爆后,CPDS 在11月10日于 Springer Nature 网站刊登告示,指编辑部接获该论文的作者报告,指参考文献有一些「不匹配和错误」(mismatches and inaccuracies),属于作者的疏忽。但编辑部认为这不影响论文的核心结论、实证资料的有效性或理论架构的完整度,亦确认文章的核心论证跟参考文献问题无关。(The Editorial Office confirms the core argument chain is independent of references issues.)不过,告示未有提及为何 CPDS 未有发现虚构文献。
涉事的论文共有6位作者,他们在论文的角色、为何未有发现参考文献出错等,是事件的重要关注点。第一作者白逸铭的研究范围为青少年与性、人口健康和社会政策分析,她的指导教授为著名香港学者叶兆辉。其他作者为港大统计与精算学系副系主任屈锦培、同系的荣誉教授林国辉、吉林大学数学系副教授苏鈵钧和医务衞生局高级统计师李若谷。
事件持续发酵,叶兆辉在11月9日向《香港01》表示,其学生、第一作者利用 AI 协助整理引用资料(Referencing)未有检查清楚,导致引用部分出错。作为通讯作者(corresponding author)的他又承认自己有责任并表示歉意,不过他强调论文通过两次学术审查,内容并非捏造,无关学术诚信问题。他指其他作者是提供数据和意见,「责任在于我同学生」。
他又表示已主动联络期刊编辑,获批准在未来数日重新上载正确版本。他形容该学生表现一直很好,今次是她首次使用 AI 协助引用工作。叶兆辉虽然对她失望,但指会给她机会,并已要求她修读一个更好地使用 AI 的课程。
港大在11月10日回覆传媒查询,表示校方在科研中使用人工智能应用方面订有严格规范及指引。港大又指对相关指控高度重视,已按既定程序对相关人士展开核查,如发现研究处理存在失误,会按程序跟进处理。

AI 幻觉袭来,学术界如何应对?
香港不少大专院校自几年前起引入 AI 应用程式供师生使用,并容许学生使用 AI 做功课。
当中,香港大学在2023年9月起免费为师生提供「Microsoft OpenAI」和「Dall-E」等 GenAI(生成式人工智慧)应用程式,并设有每位学生每月20次使用应用程式的限额。不过,校方规定使用 GenAI 完成作业的学生必须说明资料出处和引用来源等,老师亦需向学生提供指引。另外,港大亦提供不同 AI 检测工具供导师使用。
而港大就 GenAI 使用的指引中,亦提醒论文作者须审查和编辑 GenAI 所生成的内容,以及记录和注明 AI 的应用。
AI 幻觉是指 AI 模型生成的错误或误导性结果,它们看似合理但与事实相悖或偏离语境,而这情况或源于训练资料不足、有误差,以及模型的假设有误等。一项2023年的研究以 ChatGPT-3.5 和 ChatGPT-4 生成不同文献回顾(literature review),发现前者有55%的参考文献为捏造,后者亦有近两成,而引用真实的参考文献时亦被发现出错。
就 AI 虚假文献的冲击,Springer Nature 今年4月宣布新增一项能侦测投稿稿件中不相关的参考文献的 AI 工具。当工具侦测到一定数量的不相关参考文献时,便会转至小组作检查和决定是否撤回。
台湾今年亦爆出类似的 AI 虚构参考文献事件。中山大学社会学系教授叶高华发现屏东大学和南华大学的学生硕士论文参考文献列出他未曾写过的作品,从而揭发事件。其中一位学生使用 ChatGPT 免费版生成资料后没有查核,之后因格式和标注方式看来无异样而获准上传检索系统。两名学生最终需重写论文。
