AI独立完成的论文通过了同行评审赛先生

4/3/2026

AI在科学研究中的角色,若果真从辅助工具走向独立研究,科学界准备好迎接这场巨变了吗?

3月25日,《自然》(Nature)发表的一项研究显示,日本人工智能公司Sakana AI公司开发的“AI Scientist”(人工智能科学家)实现了科研流程端到端自动化,可自主提出课题、编写代码、开展实验、分析数据、撰写论文并进行同行评审。[1]

研究团队在国际计算机顶级会议ICLR的研讨会上提交了3篇完全由AI生成的论文,均围绕深度学习方法的局限性展开。其中1篇通过同行评审(平均评分6.33),达到接收标准。据此,研究团队认为,AI已具备初步独立开展计算机科学研究的能力。但研究也指出,该系统仍存在 “幻觉”、方法不严谨等问题,并可能加剧论文泛滥、冲击评审体系。

AI在科学研究中的角色,若果真从辅助工具走向独立研究,科学界准备好迎接这场巨变了吗?

AI独立完成了论文

过去,AI主要用于科研中的单点任务,如数据分析或代码生成。而据最新发表的这篇论文,AI Scientist可将这些能力整合为一个完整流程,其工作方式大体模拟人类科研人员。

这三篇提交的论文具体是如何完成的呢?

根据该研究,尽管论文内容由AI生成,但整个实验是在研究团队设计和监督下完成的。本次投稿为计算机领域,聚焦深度学习的方法的局限性。人类研究者在这一范围内,制定宽泛的研究主题,并设定了整体实验框架;AI则在这一框架内自主执行研究任务。

具体来说,AI Scientist首先生成多个研究设想,并通过文献检索排除已有工作;随后编写代码并开展基于数据集的模型训练与测试等计算实验,根据结果不断调整方案;实验完成后自动撰写论文,并检索相关文献进行引用;最后由AI系统对论文进行评审,从科学性、原创性和表达质量等方面给出评分。[1]

不过在整个流程中,AI并非完全脱离人类独立运行。

在AI Scientist生成的多篇论文草稿中,作者团队人工筛选出其中3篇投稿至ICLR 2025某工作坊。筛选依据包括想法是否符合研讨会主题、代码能否无报错运行、论文格式是否正确等。

需要说明的是,作者团队提前与会议组织方进行了沟通,告知这是一次实验性投稿并获得了同意。并且,作者团队规定所有论文在同行评审后无论结果如何都将撤回。

在投稿的3篇论文中,其中一篇分别获得6、7、6的评分,平均6.33分,达到录用标准。这3篇论文被列入本次研讨会评审的43篇论文之中,在这个环节中,评审者知道部分投稿由AI生成,但不知道具体哪些论文是AI所作。

据Sakana AI公司介绍,该系统生成一篇论文的成本约为15美元 [2](注:论文原文未提及该数据)。他们还在AI Scientist的介绍页面声称,AI Scientist还可以进行无限循环,利用之前的想法和反馈来改进下一代的想法,从而模拟人类科学界的运作方式。[2]

AI应该参与多少科研?

AI助力科学研究,此前已经展现出重要影响。以DeepMind开发的AlphaFold工具为代表,该系统在2020年解决了困扰生物学界数十年的蛋白质结构预测问题,被认为攻克了一项“50年难题”。此后,AlphaFold数据库向全球开放,已覆盖超过2亿种蛋白质结构,并被190多个国家、超过300万科研人员使用。[3] 2024年的诺贝尔化学奖也颁给了利用人工智能破解了蛋白质结构密码的三位科学家。

然而,在这些研究中,AI只是辅助科研的工具。AI参与全流程的科研工作,科学家仍然存在分歧。

即使是在AI参与论文写作和评审方面,学术界的态度不一。

《自然》期刊对约5000名科研人员的调查显示,超过90%的受访者认为使用AI进行语言润色或翻译是可以接受的。但在生成论文内容方面,约65%认为可以接受,约三分之一持反对意见。[4]

反对者的主要顾虑集中在学术诚信、同行评审责任归属以及内容质量等方面,也有人担心过度依赖AI会削弱科研训练过程,影响研究者自身能力的成长。一位加拿大地球科学研究人员表示:“我绝不会容忍使用生成式人工智能来撰写或审阅论文,这是可悲的作弊和欺诈行为。”

而在同行评审环节,超过60%的受访者认为不应使用AI撰写评审意见。与此同时,已有部分研究者在实际中使用AI辅助写作或评审,且往往未进行披露。

去年底,《赛先生》也关注了ICLR 会议的AI审稿事件。(参见:不受控制的AI审稿,魔法还是魔鬼?)ICLR 2026会议的评审中,21%的评审意见被检测为完全由AI生成,超过一半含AI痕迹,但主动披露者寥寥。不少研究者反映收到过套话连篇、文不对题的疑似AI审稿意见。

这一消息引发轩然大波。ICLR 官方当时作出回应:未披露而大量使用大语言模型生成内容的论文将被直接拒稿。

目前,多数期刊要求对生成内容类的AI使用进行披露,但具体标准尚未统一,规范明显滞后与实际情况。

例如,《科学》(Science)系列期刊明确规定,AI工具不能被列为论文作者,所有AI辅助写作或研究的使用情况必须在投稿中披露,且作者需对内容的准确性和完整性承担全部责任。同时,审稿人不得将未发表的稿件内容输入AI系统,以避免泄露保密信息。[5]

医学期刊的要求则更为具体。《美国医学会杂志》(JAMA)规定,凡在论文撰写或研究过程中使用AI工具,作者需详细说明所用模型名称、版本、使用时间及具体用途,并确认对生成内容承担责任。在涉及算法研究时,还需披露数据来源、模型训练方式及潜在偏差,以确保研究的可重复性和透明性。[6]

相比伦理争议,更现实的问题在于学术系统可能承受的压力。

自动化生成论文的能力可能显著提高论文产出速度。但如果生成成本和门槛下降,期刊和会议投稿量可能快速增加,从而加重评审负担,影响评审质量。[1]

更值得警惕的是,这一能力也可能被滥用。例如用于快速堆积论文数量,甚至制造虚假研究。现实中,“论文工厂”(paper mills)正在利用AI生成文本和图像,使伪造研究更加难以识别。[7]

有研究者表示见过一些完全由AI生成的伪造图像,但“要证明图像是由AI生成的仍然是一个挑战”。

尽管AI科学家系统已能完成完整流程,其局限性仍然明显。论文作者指出,该系统可能出现错误实现方法、不合理对比实验以及虚假或重复引用等问题。在某些情况下,AI甚至难以准确比较两个数值的大小。[1,4]

AI能够独立完成论文并通过同行评审,标志着科研活动组织方式的变化。在次背景下,科学家的角色也可能发生变化。

作者团队认为,人类科研人员的作用“不会被削弱”,而是可能转向提出问题、判断研究价值和解释结果等更高层次任务。并表示他们“设想构建一个完全由人工智能驱动的科学生态系统”:AI生成研究、AI进行评审,甚至参与会议组织。[2]

一位从事生命科学研究的受访者告诉《赛先生》,AI已深度融入到她科研工作的各个环节,包括实验设计、数据分析和论文写作等,但关键决策仍由研究者本人完成。她认为,AI正逐步走向“形式上的独立研究者”,但在研究问题的选择与判断上,仍依赖人类的经验、直觉与科学判断。与其将AI视为替代者,不如将其视为需要融合的新能力体系,但同时也需警惕滥用风险,并重视相关安全问题。

“我想表达的是,‘融合’比‘对抗’或‘依赖’都更接近合理的应对姿态。”采访的最后,她这样说道。

此次研究中,论文在同行评审完成后被作者团队撤回,未进入正式发表流程。这一安排本身也是研究的一部分。

但是当论文不再完全由人类撰写,科研评价、责任归属和学术规范,都需要重新界定。更值得深思的是,如果科研活动中人类的参与不断减少,科学发现是否还算是“发现”?这些都将是科学界必须共同面对的问题。

Scroll for more