虚假引文正暗中削弱公众对科学的信心
《自然》杂志最新分析发现,如今有越来越多的科研工作者利用大型语言模型来辅助检索文献、撰写论文和整理参考文献名单。不过,人工智能(AI)时常会“凭空造出”一些根本查无实据的文献。预计从2025年开始,将会有数以万计的学术出版物夹杂了AI炮制出的虚假引用。
学界有人担忧,如果这些“虚构引用”持续渗透学术界,可能会导致研究结论偏差、影响后续学术进展,甚至让科研方向出现误导。长期下去,还会动摇公众对科学的信赖基础。
“无中生有”问题泛滥
今年早些时候,法国图卢兹大学的计算机科学家纪尧姆·卡巴纳克突然收到谷歌学术的提醒,说他的一篇论文被《国际牙科杂志》引用。令他惊讶的是,他的研究和牙科领域毫无关联,且对那篇“引用”自己的文章完全没有印象。他推测,这极有可能是某个AI模型凭空捏造出来的假引用。
其实,这种AI造假只是冰山一角。随着大语言模型在学术圈的普及,类似“凭空制造”的引用越来越多地出现在各类学术成果中。
引文错误在学术出版界并非新现象。美国西北大学的穆罕默德·侯赛尼长期从事学术诚信研究,他指出,在AI还没出现之前,已有诸如引用作者拼写错误、年份或期刊名与实际不符、DOI号码出错、甚至被引用内容和原文对不上等常见问题。但目前的AI“虚构引用”已不是单纯的信息错误,更像是编造出的“假货”,二者本质区别很大。
过去一年中,各类学术论文中“虚构引用”频现。一项分析了三场计算机学术会议的约1.8万篇论文后发现,找不到出处的参考文献数量激增。今年1月发布的数据也显示,到2025年,2.6%的论文至少含有一个“虚构引用”,而2024年这一比例还是0.3%。2月的另一项分析发现,在2025年即将召开的四场计算机会议中,2%到6%的论文存在无法在数据库和期刊档案里查证标题或文献引用的情况。
《自然》杂志与英国公司Grounded AI联合开展的独家数据分析进一步确认,到2025年,至少有成千上万篇学术论文、专著和会议材料可能出现由AI生成的假引用。
Grounded AI联合创始人兼首席产品官尼克·莫利表示,2025年暴露出来的引文类型和以往常见的人为失误差异明显—如今的问题正是因为大语言模型的广泛应用才变得突出。
美国俄勒冈州立大学的政治学者艾莉森·约翰斯顿也直言,学术界或许即将迎来“虚构引用”遍地的严峻局面。
多种工具主动查证
针对这种越来越严重的“虚构引用”,不同的查证工具和管理机制正在加快上线。
德国柏林自由大学神经科学博士迈克尔·沃尔希奇专门用Python写了一个脚本,对Crossref数据库里的引文进行交叉检查,精准找出元数据存在的问题。截至目前,他已经筛查出500多项可疑文献,并逐条由人工核实后集中公示到学术评价平台PubPeer。
开源平台CheckIfExist能自动检测参考文献是否在指定学术库中检索到,帮助研究者绕开“编造论文”的风险点。同时,法国科研机构和卡巴纳克团队发布了名为bibCheck的免费工具,供全球学者免费使用。这一工具可以确认引文是不是指向真实存在或者已被撤稿的学术文献。
位于瑞士洛桑的“前沿”出版集团也研发了专用的AI工具,在论文初审环节筛查出“虚构引用”或无关资料等引文完整性问题。
守住学术底线
在卡巴纳克看来,带有“虚构引用”的论文不应进入学术领域。一旦发现,期刊方就该及时发出声明,并根据情况做出更正或撤稿处理。
出版行业对此的反应有侧重点。SAGE和泰勒-弗朗西斯集团表示,只要引文错误不影响结论,也未涉及更严重的失信情节,通常采取拒稿或要求作者修订的方式。威立出版集团则会就细节向作者沟通解释。施普林格·自然出版集团立场则更为坚决,发现有虚假引用的稿件坚决撤回。约翰斯顿编辑的《国际政治经济学评论》更为严厉,凡投稿有这类问题者,将被永久拉黑失去再次投稿资格。
“虚构引用”到底算不算学术不端,目前学界看法不一。有些时候,作者本人其实并非故意为之,但后果却可能十分严重。有时,研究者图省事直接用大语言模型自动生成参考文献,却没注意AI误改了引文、错配了DOI,甚至捏造了文献。今年3月,侯赛尼与美国国立环境健康科学研究所的戴维·雷斯尼克发表联名文章称,如果综述性或计量类论文将虚假的引用当作主要观点支撑证据,那么这已经可以等同于“数据造假”,是典型学术不端行为。
当前,不同期刊对于AI工具的使用规定还不统一。大多数出版方都要求作者披露是否使用AI,但申报要求各不相同。不管技术如何进步,“人工复查”依然是防止风险的最后一道防线。
侯赛尼等人呼吁,每一条虚假引用,都是对学术生态的伤害,都需要学界共同努力去修复,只有这样才能让科学的天空持续明朗。
相关文章:





