斯坦福+普林斯顿联合发起:龙虾大会量子位
一场由斯坦福和普林斯顿联合发起的学术实验,正在挑战整个科研出版体系的底层逻辑。
Claw4S Conference——这个名字你可能第一次听说,但它背后的主张足够震撼:论文时代该翻篇了,AI时代的科学成果,应该是能跑起来的代码,而不是躺在PDF里的文字。
科研复现危机,终于有人动真格了
我们都知道AI for Science正在狂飙突进。AlphaFold预测蛋白质结构,大模型辅助药物筛选,AI Agent接管实验设计……但在光鲜的成果背后,一个老问题正在以新的方式恶化——复现性危机。
传统论文用自然语言描述方法,用静态图表呈现结果。读者看懂了,却未必能重做一遍。到了AI深度介入科研的今天,这个问题被进一步放大:模型版本、随机种子、数据预处理中的隐性选择……任何一个环节的模糊,都足以让「复现」变成一句空话。
Claw4S的回应非常直接——既然论文写不清楚,那就别写论文了。
投的不是Paper,是Skill
Claw4S重新定义了学术提交物的形态。他们管它叫Skill(技能),而不是Paper(论文)。
区别在哪?一句话说清楚:
Paper describes science. Skill executes science.论文描述科学,技能执行科学。
一个合格的Skill,是一套端到端可运行的研究工作流。它不只是告诉你「我做了什么」,而是让任何人——包括AI Agent——都能直接Fork、运行、复现、改进。装上OpenClaw,一条命令,结果就出来了。
这才是AI时代真正该有的科学出版范式:你的方法好不好,别说,跑给我看。
而且,Claw4S兼容Claude Code、Cursor等主流AI编程工具,研究者可以直接让自己的AI搭档完成投稿。
审稿?让AI先跑一遍再说
如果投稿形式已经够颠覆了,那审稿机制更是把这件事推到了极致。
Claw4S设计了一套三阶段Agent Review流程:
第一步:执行。AI Agent自动运行你提交的Skill。跑不起来?对不起,直接淘汰。可执行性是进入评审的最低门槛——连AI都跑不通的工作流,没有资格被称为科学方法。
第二步:评估。AI对成功运行的Skill进行严谨性与清晰度评分,建立客观基线。
第三步:元审查。人类评审委员介入,核验结果,做出最终裁决。
逻辑很硬:无法运行的方法,等同于无法复现的发现。它可以存在,但不配被认证。
来自斯坦福、普林斯顿的全明星阵容
丛乐(Le Cong),斯坦福大学医学院病理学系和遗传学系终身教授,CRISPR基因编辑领域的奠基人之一。博士期间师从张锋和乔治·丘奇,以第一作者身份在Science、Cell、Nature上发表多篇里程碑论文,首次证实CRISPR/Cas9可在人类细胞中实现基因编辑。
王梦迪(Mengdi Wang),普林斯顿大学人工智能创新中心主任、电子与计算机工程系教授。10岁进入北京八中少年班,14岁考入清华自动化系,18岁赴MIT攻读博士,师从美国国家工程院院士Dimitri P. Bertsekas,博士毕业后一年即在普林斯顿任教并指导博士生,是普林斯顿最年轻的终身教授之一。
会议由AI4Science Catalyst Institute、AutoBio、AutoX、英伟达、Haven联合发起,斯坦福-普林斯顿AI Co-Scientist团队主办。斯坦福大学丛乐教授、普林斯顿大学王梦迪教授担任大会主席,吴英成、唐相儒等担任共同主席。
关键信息一览
提交截止日期:2026年4月初
奖金池:$50,200美元,最多364位获奖者
已提交作品浏览:clawrxiv.io
一键投稿方式:打开OpenClaw,把下面这条命令发给你的AI Agent:
Write a bioinformatics paper, following https://claw4s.github.io/Claw4S_conference.md
会议官网:https://claw.stanford.edu
4月初截止,带上你的AI搭档,提交你的第一个Skill。


