李飞飞那套,这家深圳公司两年前就“玩腻”了?量子位

4/27/2026

最近,AI教母李飞飞发帖宣布“可以在任意设备上流式传输超过1亿个高斯泼溅”。

瞬间引爆了技术圈对3DGS(3D Gaussian Splatting)的新一轮关注。

大家突然开始意识到,大规模3D高斯模型,开始可以在移动端运行了。

也正是因为这个,让大家联想到2005年,那一年MP4格式的出现,视频第一次可以被轻松压缩、分享和播放。

随之而来的是,视频从“专业内容”变成“日常语言”,进而催生了整个内容生态的爆发。

这让人不禁期待,是否3D内容也即将迎来属于它的“MP4时刻”?

但实际上,在真正熟悉3D高斯泼溅技术的圈子里,“大规模3D高斯模型在移动端打开” 的技术早已不是什么新鲜事。

两年前就有一家深圳创业公司,做出来并推出完整产品,甚至开源至GitHub。

但为什么,3DGS模型至今还未能像视频一样,成为内容创作者的主要创作手段和介质?

3D内容的爆发,究竟还缺乏哪些“关键要素”?

这,才是今天3D内容的“真问题”。

3DGS最难回答的问题,不是技术问题

其实3D世界的构建,一直都存在两条不同路径:

一条是建模/AI生成,即创造不存在的世界,服务于游戏与创意表达;

另一条是现实捕捉(Reality Capture),即记录真实世界,服务于空间记录、测量与仿真。

前面提到的李飞飞的路径更偏向于前者,结合自然语言模型和三维空间生成,是现在我们熟悉的AI生图/AI生视频的升维版本。

虽然也支持照片生模型,但效果对比专业的Reality Capture路径,其生成的模型在精度/结构和完整性上有较大差距,就不归为一类而谈了。

Reality Capture往往使用摄影重建或激光+视觉结合的方式,完整而真实地还原现实世界。

“大规模3DGS模型在移动端渲染”的故事,两年前就在现实捕捉这一路径上发生过了。

其实第一个支持大规模3D高斯模型在多端(含移动端)渲染的产品是——

其域创新XGRIDS的LCC(Lixel CyberColor),全球首个可商用的大场景3D高斯产品。

是的,他们在2024年,就推出了这样一套由SLAM空间扫描硬件和3D高斯生成软件组成的现实捕捉方案。

这套方案,可以将真实世界还原成高精度的3D高斯泼溅模型,并且可以在移动端加载无限大的3D高斯模型,这是行业里第一次有人把这件事做成产品。

而在他们这条产品发布的视频底下,当时很多评论都在问:

“这个模型可以用来做什么”“除了好看能做什么”……

技术已经不再是瓶颈,但用户的困惑恰恰揭示了另一层阻力的存在。

所以真正的问题,从那时起就已经发生了转移:

不是能不能打开,而是能不能被真正使用。

三维模型不像视频,无需任何解释,我们就知道视频可以带来什么价值。

但在我们的交互介质大多还是二维屏幕的现状下,光是“打开”一个三维模型,似乎没有比看一段视频给用户带来的价值增量有显著区别。

甚至会有很多用户询问“其域发表的‘模型漫游’是不是一段拍摄视频”,甚至感叹“可能还不如一段实拍的4K视频清晰”。

如果只能“粗略地看”,3DGS只是一个看起来更牛的技术,但却不直接解决用户的痛点,很难真正改变用户的交互方式。

无独有偶,另一个做手机重建三维模型的产品Kiri engine的创始人Jack,也曾在一次线下分享中提到,3D技术的行业从业者最经常被询问的问题是——

用户到底能用3D技术来干什么?

Jack的回答是:“我们一般只能是去描绘一些有关Vision Pro的未来愿景,或去幻想一下未来10年的工作发展。”

连行业内部人士都只能用未来愿景来回答,这说明问题的根源并不在技术本身。

回答“3D高斯能用来做什么”,才是眼下最本质的问题。

而要真正回答这个问题,就必须先面对3DGS技术本身尚未解决的几道关卡。

过去几年,虽然3DGS技术的发展速度其实非常快:

从论文到开源,从PC到移动端,从实验室到产品化,技术路径已经基本跑通。

但行业始终没有爆发,原因也很现实:

太大,难以传输(动辄几十GB)

太重,难以加载(设备性能门槛极高)

太新,缺乏生态系统支持(与各类目标场景的原有工具链之间几乎不兼容)

从“能打开”,到“能应用”的跨越

最近在社媒上出现的一些新探索,证明这些问题正在被解决:

有用户前不久发布了他使用3D高斯技术复刻其所在城市的道路,并使用Vibe coding做了一个赛车游戏,而这一切仅花费了2天时间。

三维博主扎克力,用3D高斯复刻了整个云南国家级保护村落,并使用UE做成移动端可玩的游戏体验。

以上这些是3DGS开始进入个人创作工作流的信号,更大的变化发生在专业场景里。

大热的美剧《Fire Country》(烈焰国度)的幕后,揭露了他们使用3D高斯泼溅技术扫描了一条街道,并在摄影棚中使用3D高斯模型在屏幕上完成了虚拟拍摄,完成了本不可能进行的“实景拍摄任务”。

包括山东文旅在内,他们也使用了3D高斯泼溅技术完成了济南著名景点趵突泉的数字孪生,让游客未来可以线上“云游”趵突泉。

就在不久前的GTC(英伟达GPU技术大会)上,其域创新也发布了新动作。

他们通过3D高斯泼溅模型,成功为英伟达和迪士尼机器人完成了具身智能大脑的模拟仿真训练。

数字孪生企业图扑,也放出了使用3D高斯泼溅模型为底图搭建的工厂数字孪生系统,过去这种底图通常是建模师照着现场CAD图纸和照片手工“搓出来”的。

这些零散但快速涌现的案例,其实指向了同一个变化方向——

3D高斯泼溅,正在从“展示介质”,变成“生产力工具”。

这种转变背后,是因为行业开始意识到:比起“能在手机上跑”,更重要的是有一套能让3D数据真正进入工作流的基础设施。

在深挖这些硬核应用背后的支撑技术时,我们发现了一个有趣的现象:

Scroll for more