不受控制的AI审稿,魔法还是魔鬼?赛先生
12/19/2025
在学术出版体系中,同行评审机制能够长期有效运转,源于学者们以专业判断和个人信誉建立起来研究质量的 “最后一道防线”。
人工智能(AI)正深入科研的每一个环节。当它深度介入到评审环节,被寄望于提升学术出版的整体效率,但随之而来的是,同行评审的独立性、主体性与信用受到冲击,误判与学术垃圾产生也有增加的风险。
如何应对不受约束的 AI,无疑正成为整个学术共同体必须直面的严峻挑战。
人工智能领域顶级会议 “国际表征学习大会(International Conference on Learning Representation,简称 ICLR)2026” 最近刚刚完成其投稿和评审工作。令人吃惊的是,当会议主办方对所有稿件及评审意见进行系统性的 AI 检测后,发现 21% 的评审意见被检测为完全由 AI 生成,超过一半含 AI 痕迹 [1]。
这一消息引发轩然大波。康奈尔大学计算机科学家、ICLR 2026 高级项目主席 Bharath Hariharan 在接受采访时称:“这是会议首次以如此规模面对这一问题。等我们完成整个流程后,将对‘信任’有更清晰的认识。” [2]
11 月 19 日,ICLR 官方作出回应:未披露而大量使用大语言模型生成内容的论文将被直接拒稿。
该机构指出,过度或草率地使用大语言模型往往会导致虚假陈述、内容歪曲,或生成 “幻觉” 内容(包括虚构的参考文献)。此类行为将被视为违反学术伦理准则。同时,包含虚假陈述、内容歪曲或虚构参考文献的极低质量的评审意见,同样构成学术伦理违规行为。发布此类劣质评审意见的审稿人也将面临后果,包括其本人提交的论文被直接拒稿 [3]。
AI 审稿,恐怕是当前学术出版行业和学术界面临的最大挑战之一。


