AI助力论文写作,科技期刊如何评价
人工智能(AI)如今已经深度融入科研的方方面面。虽然极大地提升了科研效率,但与此同时, AI也带来了论文代写、伪造数据以及新型的“思想窃取”等学术不端现象。这些行为日趋隐蔽,对学术诚信构成了新的挑战。科技期刊应该如何识别、应对并防范这些问题?近期,科技日报记者就此专访了《柳叶刀》副主编萨宾娜·克莱纳特(Sabine Kleinert)。
记者:针对AI引发的新型科研不端,比如传统科研诚信评估方式中的同行评议、数据审查等环节可能失灵,科技类期刊如何更好地履行“把关人”责任?
萨宾娜:目前,科研工作中生成式AI的应用程度明显提高。我们目前的手段主要依赖于作者的主动申报。《柳叶刀》系列期刊的投稿系统近期新增了一个选项,询问作者是否在研究的任何环节里用到生成式AI工具。如果选择“是”,作者须详细说明:用过哪些大型语言模型、所使用的版本号、具体的提示词、用途,以及相关内容在论文中的具体位置。这些细节将随论文一同公布,致谢部分也要求有相关披露。
为确保编辑、评审和读者都能全面了解AI的介入情况,作者需如实申报AI的使用,且对内容的原创性、准确性和完整性负终极责任。若未规范披露,编辑有权据此拒稿。
记者:成效如何?
萨宾娜:这是个大难题。回顾近期数据,只有约7%的作者承认在论文中使用了生成式AI,这与多项调查中超过半数科研工作者实际用过AI的情况明显不符,也说明不少作者没有如实申报。
我们发现,未申报的AI生成内容(AIGC)最突出的表现是“虚假引用”。编辑核查文献时,经常遇到带有 DOI 号但查无此文的参考资料。仔细核对后,甚至发现在部分投稿中,多达十几条引用其实根本不存在。
记者:当发现这种情况,会怎样处理?
萨宾娜:如果稿件中大量内容是借助AI且未申报,我们将会拒绝录用稿件,并通知作者其行为不妥。若发现该行为在个别作者或团队中反复出现,我们会进一步联系作者所在机构,建议他们对AI合理使用进行培训。
记者:因此拒稿的论文比例高吗?
萨宾娜:目前还很少。过去一个月只遇到数次。这一问题还很新,未来会不会增多尚无法预料。
另外,每日还有几篇内容空洞、毫无创新、疑似完全由生成式AI拼凑的来稿,通常直接被退回。这些文章通常没有任何科学新发现,格式套路化严重。
记者:在论文撰写、评审和出版环节,什么情况下严禁使用AI?
萨宾娜:《柳叶刀》系列期刊不接受以AI替代研究者的学术工作,比如提出科研观点、分析解释数据、得出结论或提出建议等核心环节。
我们目前禁止同行评审过程中使用生成式AI。原因在于评审稿件可能被上传到公开系统,进而泄露未公开研究内容,造成保密性风险。同样,包括对论文的独立评判、对作者工作的评论等,编辑和审稿人也不得借助生成式AI。而如果用生成式AI为图表创意提供想法,原则上只限于头脑风暴以及辅助提出图片设计概念。
记者:哪些场合可以合理利用生成式AI?
萨宾娜:在不影响研究内容本质的前提下,允许作者利用生成式AI润色语法和改善表达,查阅并总结已有文献、提升论文语言质量等,都是可以接受的。
有部分研究人员担心申报后会影响稿件处理,我们想传达的是:如实申报不会影响论文录用与否,我们只要求研究者坦承地披露AI工具的实际应用,真正的审核和责任归根结底属于研究者本身。
记者:对于生成式AI可能带来的科研诚信风险,期刊方如何应对?
萨宾娜:这确实是当前最棘手的难题。AI普及的大背景下,约束难度显著增大。最现实做法就是明确哪些行为是违规的,坚持诚信和透明,承担责任由每一位使用者来落实。
我们在编辑部专门设立了科研诚信工作小组,聚焦两方面:一是及时更新生成式AI相关管理政策,二是跟踪处理各类复杂案例,参照外部行业指导方针进行调整。比如国际出版伦理委员会近期就更新了撤稿指南,我们也会根据这些趋势完善自身流程。
现在,《柳叶刀》编辑部计划着手建立科研诚信委员会,目前处于筹备阶段,预期将于明年二月正式启动,届时生成式AI对科研诚信的影响将成为核心议题之一。
记者:在具体使用生成式AI时,科研从业者和编辑都应注意哪些基本原则?
萨宾娜:AI其实更像是一种辅助工具。尽管名称里有“智能”二字,但AI并不具备真正的判断力和洞察。因此,研究人员、编辑和出版方在探索AI辅助工作时一定要关注其中的潜在陷阱。比如AI“幻觉”、偏见、系统故障,乃至被利用从事不诚信行为,都有可能损害公众对科研的信任。AI生成内容表面上往往语言流畅,但实际缺少真正的创新和深度。更值得警惕的是,新一代研究人员可能因此面临能力被削弱的风险。





