哈佛重磅:AI诊断真实病例准确率超医生新智元
哈佛研究登上Science:在76名真实急诊患者的双盲对决中,OpenAI o1诊断准确率67%碾压人类医生的50%,治疗方案得分89%对34%更是断崖式领先——但AI还看不见患者的脸色和痛苦,真正的变革不是「AI赢了」,而是急诊室正在走向「医生×患者×AI」三方共治的新范式。刚刚,一颗重磅炸弹砸进了全球医疗圈。哈佛大学医学院联合贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center),把一项令人坐立不安的研究结果发在了《Science》上。
在急诊室的真实分诊场景中,OpenAI的o1推理模型诊断准确率达到67%,而两位经验丰富的内科主治医生,一个55%,一个50%。
不是在做题,不是在考试,而是在真刀真枪的急诊室里。
更扎心的数据还在后面——在制定治疗管理方案的测试中,o1拿了89%,而人类医生使用传统资源辅助后,中位数只有34%。
差距不是一星半点,是两倍多。
这不是一个AI公司的自卖自夸,这是哈佛医学院牵头、顶级学术期刊背书、双盲评审确认的结果。
研究论文的通讯作者、哈佛医学院AI实验室负责人Arjun Manrai说了一句意味深长的话:「我们用几乎所有基准测试了这个AI模型,它超越了此前所有模型和医生基线。」
一个时代的裂缝,就这么被撕开了。
76个真实患者,零预处理,双盲对决
这项研究最硬核的地方在于:它不是拿精心整理的教科书病例去考AI,而是直接把急诊室里最原始、最混乱的电子病历扔给了机器。
研究团队从贝斯以色列急诊科随机选取了76名真实患者,在三个关键诊断节点进行对比——急诊分诊(患者刚进门)、急诊医生首次接诊、以及收治入院或进ICU。
每个节点,两位内科主治医生和OpenAI的o1、4o模型同时给出鉴别诊断,每方最多列5个可能诊断。
关键细节是:研究人员对数据零预处理。
论文明确写道,AI模型接收到的信息和医生看到的电子病历完全一致——那些凌乱的、缺失的、充满噪声的真实临床数据。
然后,由另外两名主治医生进行「盲评」——他们不知道哪个诊断来自人类、哪个来自AI。
盲评结果显示,评审医生几乎完全无法分辨诊断来源:一位医生猜对AI/人类的准确率仅15.2%(83.6%的时候选了「分不清」),另一位更夸张,只有3.1%(94.4%「分不清」)。
换句话说,AI写的诊断,连资深医生都看不出是机器生成的。
在这样的严苛条件下,o1模型在急诊分诊阶段——信息最少、时间最紧、决策最关键的环节——给出了67.1%的准确率(包含精确诊断或非常接近的诊断)。
两位人类医生分别是55.3%和50.0%。
随着信息逐渐增多,所有人的表现都在提升:到入院阶段,o1准确率升至81.6%,医生分别为78.9%和69.7%。
但差距始终存在,而且在信息最匮乏的初始阶段差距最大。
这恰恰是最可怕的发现——急诊最要命的就是「前几分钟」,患者刚被推进来,信息碎片化,生死攸关,医生需要在极度不确定中做出判断。
而恰恰在这个环节,AI表现最突出。
急诊医生不干了:拿内科医生跟AI比,能说明什么?
论文发布后,一位名叫Kristen Panthagani的急诊科医生在社交媒体上直接开怼:这是一个「被过度炒作的有趣研究」。
她的核心质疑是:研究中和AI对比的是内科主治医生,不是急诊科医生。
「如果我们要拿AI和医生的临床能力做比较,至少应该拿同一个专科的医生来比。我不会惊讶于一个大语言模型能在神经外科的专科考试中打败皮肤科医生,但这并不能说明什么。」
她还指出了急诊医学的本质逻辑:「作为一名第一次看到患者的急诊医生,我的首要目标不是猜出最终诊断。我的首要目标是判断你是否有一种可能会杀死你的疾病。」
这个反驳有力量吗?
有。但也需要注意,研究论文本身已经承认了这一局限性,而且论文的核心论点从来不是「AI可以替代急诊医生」,而是「AI在有限信息下的推理能力已经达到值得临床试验的水平」。
急诊医生在现场做的远不止「猜病名」——他们要看患者的面色、听呼吸的声音、感受疼痛的程度、判断生命体征的微妙变化。
这些细微的非语言信号,有时候比任何检验指标都重要。
一个经验丰富的急诊医生走进病房,扫一眼患者,可能就已经做出了80%的判断——这种能力叫「临床直觉」(clinical gestalt),它来自数以万计的真实接诊经验,目前没有任何AI能够复制。
Manrai自己也承认,团队正在研究AI处理影像和其他非文本信号的能力,「看到了快速进步的结果」,但距离临床部署还有很长的路。
辛顿的「预言」教训:放射科医生没下岗,反而更忙了
说到AI取代医生这个话题,不得不提一个经典的「打脸」案例。
2016年,AI教父、诺贝尔奖得主Geoffrey Hinton说了一句震动医学界的话:人们现在就应该停止培训放射科医生了。深度学习在五年内就会比放射科医生做得更好,这完全是显而易见的。
这句话当时吓退了不少准备选择放射科的医学生。整个2010年代后期,媒体上铺天盖地都是「放射科即将消亡」的文章。
十年过去了。
梅奥诊所的放射科医生团队从2016年至今增长了55%,达到400人。美国放射学会预测,未来30年放射科医生供给还将增长26%。
全球最大的放射科医生短缺正在发生——不是因为AI抢走了工作,而是因为AI让影像检查变得更便捷,反而催生了更多需求。
Hinton本人后来也承认自己「说得太宽泛了」。
他修正了预测:未来的医学影像解读将由「AI和放射科医生的组合」来完成,AI会让放射科医生「效率大大提高,同时提升准确率」。
这个故事里有一个深刻的经济学原理——杰文斯悖论:当一项技术让某种资源的使用更高效时,这种资源的总需求反而可能大幅增加。
影像诊断变便宜、变快了,于是医生开了更多检查,放射科医生反而更忙了。
哈佛这项新研究的作者们显然吸取了辛顿的教训。
论文通讯作者Manrai在新闻发布会上明确说:「我们的发现并不意味着AI取代医生,尽管有些卖AI医疗产品的公司可能会这么说。」
共同通讯作者、贝斯以色列AI项目负责人Adam Rodman则更直白:「目前AI诊断没有任何正式的问责框架。患者想要的是人来引导他们度过生死攸关的决策,引导他们面对艰难的治疗选择。」
不是「AI赢了」而是医疗决策权在重组
据美国医学会(AMA)2026年调查,超过80%的美国医生已经在职业中使用AI——是2023年的两倍。
17%的医生使用AI进行「辅助诊断」。
2025年的一项Elsevier研究发现,20%的临床医生已经在向大语言模型寻求「第二意见」。
哈佛这项研究证明,AI在信息最匮乏、决策最紧迫的急诊场景中,推理能力已经超过了人类医生。
三个数据叠加在一起,指向一个清晰的趋势:医疗决策的权力结构正在发生根本性的重组。


