DeepMind CEO:发明新东西比复制难一百倍Z Highlights
“收益递减”与“毫无收益”是完全不同的。现在处于两者之间:仍然能获得非常可观的回报,而且这是值得继续投入的方向。迈向AGI也许仍然还需要一两项重大的创新,而不仅仅是对现有理念的规模化提升。
系统能够更好地理解世界的物理规律,从而在脑海中运行模拟来验证自己的假说,这正是顶尖科学家、人类科学家所做的事情。而到目前为止,我们的AI系统还无法做到这一点。
AI可以说是一把双刃剑,最终它将成为人类有史以来最重要的技术。这实际上也是计算机时代的自然发展和延伸。
对于所有AI实验室的领导者来说,这都是一项责任。在我们所处的激烈资本主义竞争环境中,仍需将这一点放在心上,时刻牢记如何引导AGI造福全人类。因此,这两件事情同时成立:既要参与竞争,也要担起更大的责任。
2026年1月16日由Arjun Kharpal和Steve Kovach主持的CNBC《Tech Download》首期节目中,Google DeepMind首席执行官Demis Hassabis亲自亮相,分享这家全球领先的AI研究机构如何推动一系列突破性进展,并深入探讨AGI竞赛对科学、商业以及整个社会所带来的深远影响。
Arjun:大家好,欢迎收看《Tech Download》。我是Arjun Kharpal,常驻伦敦的CNBC高级科技记者。本次我带来了一位非常特别的新嘉宾,一起来聊聊最新的科技动态。
Steve:我是Steve Kovach,在纽约从事科技报道,主要关注Apple和Microsoft。不过说实话,这行已经干了15年,对整个科技行业的动态和趋势都比较熟悉。能和Arjun一起合作,我真的很兴奋。之前一直都在远方关注他的工作,现在终于有机会真正碰面,这次交流应该会非常有意思。
Arjun:这次一定会很有趣,Steve。我们两个人加起来在科技报道领域差不多有近三十年的经验,但令人兴奋的是,仍有很多东西可以学习。相信在一起制作这档播客的过程中,我们会接触到大量有趣的人物,学到很多新东西。这一季的开篇,我们就从Google DeepMind入手,带来对这一世界顶尖AI实验室的深入解读。给听众和观众简单介绍一下Google DeepMind。这家公司成立于2010年,总部就在伦敦,最初是一家非常小的创业公司,由三位创始人创立:Demis Hassabis、Shane Legg和Mustafa Suleyman——后者现在已经在微软工作了,对吧?
Steve:事实上,我差不多一年前就采访过他。Suleyman基本上在做的事情和Demis在Google做的类似。很有意思的是,Google可以说是一个“孵化器”,汇聚了全球顶尖的AI人才。Demis显然一直留在这里,继续领导DeepMind的工作。
Steve:另外特别有意思的一点在于过去三年里我们经历的这一轮 AI 浪潮本身。三年前,ChatGPT横空出世,当时Google一度被视为面临威胁。他们经历了“红色警报”状态,不得不进行一系列内部重组。最终,Demis脱颖而出,成为AI领域的领导者。而2025年对Google来说,又是AI发展非常关键和引人注目的一年。他们在某种程度上追上了,甚至在某些方面超越了ChatGPT的表现。这非常有趣,因为支撑这一切的核心技术LLM,其实最早就是在Google开发的。外界曾有一种看法,认为Google让ChatGPT把这项技术抢先用起来了。但在我看来,现在的Gemini已经几乎可以和ChatGPT平起平坐,甚至在某些方面表现更好。
Arjun:Google DeepMind在这当中起着核心作用。我之前提到,它成立于2010年,而Google在2014年将其收购。当时我刚刚进入科技报道行业,Google为DeepMind支付了大约4亿英镑,也就是2014年约5.4亿美元。按照现在的估算,这笔投资的价值可能已经达到数百亿,甚至上千亿美元。
Arjun:实际上,DeepMind对Google的AI发展至关重要。以Gemini这个面向消费者发布的聊天机器人为例,它的背后技术很大程度上都来自DeepMind。但早在这些之前,DeepMind就已经有过一些重大突破。几年前,他们推出了名为AlphaGo的系统,引起了全球轰动。这是第一个能够击败围棋世界冠军的计算机程序。围棋是一种非常复杂的棋类游戏,当时被视为AI的重大挑战之一,因为它的变化极其多样,可能的组合数量非常庞大。
Arjun:另一个重大突破当然是AlphaFold。这也是DeepMind开发的AI系统,能够精准预测蛋白质结构的三维模型。它的意义在于,如果能做到这一点,就可能带来医学领域的重大突破,科学上的这一进展也一直是DeepMind核心工作的重点。显然,十多年前Google对DeepMind的投资是一个重要的战略赌注,也正是这项投入帮助Google成为了今天的AI全球领导者。
Steve:这正是我对DeepMind印象最深的地方。多年来一直关注着他们,我发现DeepMind非常扎根于科学。他们当时并不一定想去做面向消费者的产品,而是真正致力于解决科学上的基础性问题,引领AI在药物研发等领域的应用,甚至是应对气候变化等复杂挑战。我知道Demis针对这些话题聊了很多,在接下来的对话中,他也会谈到这些内容。
Arjun:没错,Steve,这为了解DeepMind已经做了很好的铺垫。接下来,我们进入与DeepMind CEO Demis Hassabis的对话环节。Damis,非常感谢您参加《Tech Download》,非常荣幸能聊这次话题。
Demis:谢谢邀请。
Arjun:Demis,我们希望在有限的时间里聊到很多内容,但我想先从技术本身开始。我们一直在谈论AI,也在讨论这些系统的能力,以及它们如何在持续进步。在科技圈里,有很多讨论集中在一个问题上:这些模型究竟能达到多高的水平,这些系统的能力究竟能提升到什么程度?关于这一点,其实科技圈有很多讨论,尤其是关于Scaling Laws的概念。给听众解释一下,这个概念指的是:更多的算力、更大的数据量、更大的模型,最终会推动系统能力整体提升。您提到过,我们需要把Scaling Laws推到极限。现在的问题是,我们是否在这些Scaling Laws的进展上遇到了瓶颈?模型提升能力的空间是否有上限?就DeepMind目前的开发来看,您观察到的情况是怎样的?
Demis:我觉得Scaling Laws运行得很好。我们确实观察到,通过增加算力、增加数据量以及扩大模型规模,系统能力在不断提升。虽然这个趋势相比几年前可能没有那么快,因此有些人会谈到“收益递减”的问题,但要注意,“收益递减”与“毫无收益”是完全不同的。我认为现在处于两者之间:仍然能获得非常可观的回报,而且这是值得继续投入的方向。如果谈到迈向AGI,也许仍然还需要一两项重大的创新,而不仅仅是对现有理念的规模化提升。
Arjun:我们很快就会正式聊到Gemini,但在您看来,目前还缺少哪些关键环节呢?
Demis:其实如果进行观察,我们都尝试过各种聊天机器人,会发现它们在某些方面确实很出色,但它们的智能是碎片化的。也就是说,它们在特定任务上表现很好,但在其他方面完全做不到。如果你用某种方式提出问题,就会发现它们存在明显缺陷,有些相对简单的事情它们也做不了。而要实现真正的AGI,这种不一致性就不应该存在,智能表现应该在各个方面都保持一致。此外,目前的系统还有一些限制:它们无法持续学习,无法在线获取新知识,也不能真正创造原创内容。所以对于AGI而言,有许多能力在现有系统中仍然缺失,这一点非常有意思。
Arjun:那么要实现那种真正智能的系统,需要解锁哪些关键能力呢?我想顺便分享一下几个月前与Hugging Face联合创始人Thomas Wolf的一次对话。他谈到自己对LLMs的看法,认为它们确实非常出色。比如在使用这些聊天机器人时,它们会回应“好问题”“好主意”,并提供你需要的所有信息。但目前这些系统仍然缺少产生全新创意的能力。尤其是在科学领域,比如利用AI发现新药物或新疾病,LLMs可能无法提出那些足以获得诺贝尔奖的创新性想法,这也许意味着需要某种全新的架构。那么在您看来,目前该如何应对这一局限?
Demis:是的,我对AI的热情,以及我整个职业生涯都投入在这个领域的原因,就是因为我相信,它最终会成为科学的终极工具。当然,我们已经通过AlphaFold,以及过去十年在科学领域的工作,展示了这一点。但在AI是否能够真正自己提出新的假说方面,还有很长的路要走。现在的系统可以解决已经存在的猜想,这本身已经很有用,也很令人印象深刻,但它们还无法自己提出新的猜想,提出关于世界可能如何运作的新想法。到目前为止,这些系统还没有这种能力,所以显然还缺少某些关键东西。有些功能需要长期规划、更强的推理能力,或是所谓的“World Models(世界模型)”的概念——也就是系统能够更好地理解世界的物理规律,从而在脑海中运行模拟来验证自己的假说,这正是顶尖科学家、人类科学家所做的事情。而到目前为止,我们的AI系统还无法做到这一点。
Arjun:能帮我们更详细地解释一下“World Models”这个概念吗?因为对很多人来说,这可能是第一次听到这个词。我也想了解,它和LLMs有什么不同?
Demis:目前我们使用的LLMs主要还是围绕文本。当然,像Gemini这样的基础模型也可以处理图像、视频和音频等不同模态。但它们仍然没有真正理解世界的物理规律,也没有理解因果关系,比如一件事情如何影响另一件事情。它们能否进行长期规划,预测未来的发展?这些都是相互关联的概念。如果真的想完成科学理论所做的事情,理解世界的运作方式,从而可能创造出新的事物,那么就必须拥有一个准确的World Models。从直觉物理开始,理解世界的物理规律,一直到生物学、经济学等更高层次的领域,这都是必不可少的。
Arjun:那么,如果我们实现了所谓的AGI——达到人类水平的智能,您认为会是LLMs和World Models协同工作,还是在某种意义上,World Models会取代LLMs?
Demis:不,这些技术最终会趋向融合。至少我是这么判断的。Foundation Models(基础模型),比如Gemini,依然会是核心组成部分。这一点我几乎毫不怀疑,所以我们必须尽可能地将这些系统扩展得更大、更强。但问题是,它们是否是实现AGI所唯一需要的组成部分?在这方面,我怀疑还需要其他类型的技术和能力。
Demis:我认为这些World Models能力非常重要,我们正在开发自己的版本,叫做Genie。同时,我们还有最先进的视频模型,可以根据文字信息生成视频。你可以把视频模型和像Genie这样的交互式模型看作是早期的“胚胎”World Models。如果一个系统能够生成关于世界的逼真内容,那么从某种意义上,它就理解了世界的运作方式。否则,它又怎么可能生成这些内容呢?
Arjun:正如您提到的关于AGI,我知道这个概念有多种定义。您之前曾表示,自己认为实现AGI可能在5到10年的时间范围内。那么,考虑到我们在2025年看到的一些深远发展,您的看法是否仍然如此?
Demis:是的,我认为我们实际上正走在正确的轨道上。2010年我们创立DeepMind时,就设想这是一个大约20年的长期使命,去构建能够展现我们所有认知能力的AGI系统,包括真正的创新能力、创造力、规划能力、推理能力等等。我认为距离实现这一目标大约还有5到10年时间。但如果想想这项技术的变革性,这已经是非常了不起的了。
AI在突破能源与算力瓶颈中的作用
Arjun:您提到可能还需要一些技术突破。我们看到模型在不断进步,半导体技术也在快速发展。那么目前是否存在一些瓶颈需要解决?我知道能源问题一直被频繁提及:虽然我们可以不断改进芯片、不断提升模型能力,但总有一天,我们可能没有足够的能源来支撑这些数据中心和AI模型的运行。
Demis:是的,其实存在很多物理上的限制。当然,从来没有人能拥有足够的芯片。幸运的是,我们除了GPU,还有自己的TPU系列,但实际上全球的算力芯片仍然远远无法满足需求。而最终,这又归结到能源问题。随着我们迈向AGI的时代,人们越来越把“能源”视为“智能”的同义概念。
有趣的是,我认为AI本身也能在这方面提供帮助,比如提高现有基础设施的效率,改进材料设计,比如更高效的太阳能材料;甚至推动新的突破性技术的发展,比如核聚变。我们在美国就与Commonwealth Fusion有合作,利用AI来帮助控制等离子体和聚变反应堆的运行。我个人特别关注的一个项目是:能否利用AI发现一种室温超导材料。AI可以带来多个突破,并帮助我们解决能源问题。实际上,这可能是AI最有前景的应用场景之一。
另一方面,随着这些系统不断进步,它们的效率每年也在提升大约10倍。以我们的一系列模型为例,我们有旗舰型号Lighthouse、Gemini的专业版,以及更加高效的Flash版本——这些是用于日常工作的主力模型。它们还采用了一些技术,比如Distillation(蒸馏),即用大模型去“教”小模型,而小模型的效率非常高。类似的创新技术会越来越多,不断推动效率曲线下降,从而每瓦特的计算性能会大幅提升。
Arjun:围绕AGI,外界的讨论始终非常热烈。一方面,这项技术听起来极具突破性和吸引力;但另一方面,人们也普遍对它的广泛应用心存担忧,尤其是它将如何深刻改变普通人的生活方式。从社会影响的角度来看,有哪些关键问题需要被认真考量?无论是对就业岗位和劳动结构的影响,还是在一旦实现这一目标之后,人类将如何重新安排和利用自身时间;与这些讨论并行的,还有一个同样重要的问题——在您看来,这项技术最终可能为人类社会带来哪些实质性的价值和长远益处?


