李飞飞那套,这家深圳公司两年前就“玩腻”了?量子位
最近,AI教母李飞飞发帖宣布“可以在任意设备上流式传输超过1亿个高斯泼溅”。
瞬间引爆了技术圈对3DGS(3D Gaussian Splatting)的新一轮关注。
大家突然开始意识到,大规模3D高斯模型,开始可以在移动端运行了。
也正是因为这个,让大家联想到2005年,那一年MP4格式的出现,视频第一次可以被轻松压缩、分享和播放。
随之而来的是,视频从“专业内容”变成“日常语言”,进而催生了整个内容生态的爆发。
这让人不禁期待,是否3D内容也即将迎来属于它的“MP4时刻”?
但实际上,在真正熟悉3D高斯泼溅技术的圈子里,“大规模3D高斯模型在移动端打开” 的技术早已不是什么新鲜事。
两年前就有一家深圳创业公司,做出来并推出完整产品,甚至开源至GitHub。
但为什么,3DGS模型至今还未能像视频一样,成为内容创作者的主要创作手段和介质?
3D内容的爆发,究竟还缺乏哪些“关键要素”?
这,才是今天3D内容的“真问题”。
3DGS最难回答的问题,不是技术问题
其实3D世界的构建,一直都存在两条不同路径:
一条是建模/AI生成,即创造不存在的世界,服务于游戏与创意表达;
另一条是现实捕捉(Reality Capture),即记录真实世界,服务于空间记录、测量与仿真。
前面提到的李飞飞的路径更偏向于前者,结合自然语言模型和三维空间生成,是现在我们熟悉的AI生图/AI生视频的升维版本。
虽然也支持照片生模型,但效果对比专业的Reality Capture路径,其生成的模型在精度/结构和完整性上有较大差距,就不归为一类而谈了。
Reality Capture往往使用摄影重建或激光+视觉结合的方式,完整而真实地还原现实世界。
“大规模3DGS模型在移动端渲染”的故事,两年前就在现实捕捉这一路径上发生过了。
其实第一个支持大规模3D高斯模型在多端(含移动端)渲染的产品是——
其域创新XGRIDS的LCC(Lixel CyberColor),全球首个可商用的大场景3D高斯产品。
是的,他们在2024年,就推出了这样一套由SLAM空间扫描硬件和3D高斯生成软件组成的现实捕捉方案。
这套方案,可以将真实世界还原成高精度的3D高斯泼溅模型,并且可以在移动端加载无限大的3D高斯模型,这是行业里第一次有人把这件事做成产品。
而在他们这条产品发布的视频底下,当时很多评论都在问:
“这个模型可以用来做什么”“除了好看能做什么”……
技术已经不再是瓶颈,但用户的困惑恰恰揭示了另一层阻力的存在。
所以真正的问题,从那时起就已经发生了转移:
不是能不能打开,而是能不能被真正使用。
三维模型不像视频,无需任何解释,我们就知道视频可以带来什么价值。
但在我们的交互介质大多还是二维屏幕的现状下,光是“打开”一个三维模型,似乎没有比看一段视频给用户带来的价值增量有显著区别。
甚至会有很多用户询问“其域发表的‘模型漫游’是不是一段拍摄视频”,甚至感叹“可能还不如一段实拍的4K视频清晰”。
如果只能“粗略地看”,3DGS只是一个看起来更牛的技术,但却不直接解决用户的痛点,很难真正改变用户的交互方式。
无独有偶,另一个做手机重建三维模型的产品Kiri engine的创始人Jack,也曾在一次线下分享中提到,3D技术的行业从业者最经常被询问的问题是——
用户到底能用3D技术来干什么?
Jack的回答是:“我们一般只能是去描绘一些有关Vision Pro的未来愿景,或去幻想一下未来10年的工作发展。”
连行业内部人士都只能用未来愿景来回答,这说明问题的根源并不在技术本身。
回答“3D高斯能用来做什么”,才是眼下最本质的问题。
而要真正回答这个问题,就必须先面对3DGS技术本身尚未解决的几道关卡。
过去几年,虽然3DGS技术的发展速度其实非常快:
从论文到开源,从PC到移动端,从实验室到产品化,技术路径已经基本跑通。
但行业始终没有爆发,原因也很现实:
太大,难以传输(动辄几十GB)
太重,难以加载(设备性能门槛极高)
太新,缺乏生态系统支持(与各类目标场景的原有工具链之间几乎不兼容)
从“能打开”,到“能应用”的跨越
最近在社媒上出现的一些新探索,证明这些问题正在被解决:
有用户前不久发布了他使用3D高斯技术复刻其所在城市的道路,并使用Vibe coding做了一个赛车游戏,而这一切仅花费了2天时间。
三维博主扎克力,用3D高斯复刻了整个云南国家级保护村落,并使用UE做成移动端可玩的游戏体验。
以上这些是3DGS开始进入个人创作工作流的信号,更大的变化发生在专业场景里。
大热的美剧《Fire Country》(烈焰国度)的幕后,揭露了他们使用3D高斯泼溅技术扫描了一条街道,并在摄影棚中使用3D高斯模型在屏幕上完成了虚拟拍摄,完成了本不可能进行的“实景拍摄任务”。
包括山东文旅在内,他们也使用了3D高斯泼溅技术完成了济南著名景点趵突泉的数字孪生,让游客未来可以线上“云游”趵突泉。
就在不久前的GTC(英伟达GPU技术大会)上,其域创新也发布了新动作。
他们通过3D高斯泼溅模型,成功为英伟达和迪士尼机器人完成了具身智能大脑的模拟仿真训练。
数字孪生企业图扑,也放出了使用3D高斯泼溅模型为底图搭建的工厂数字孪生系统,过去这种底图通常是建模师照着现场CAD图纸和照片手工“搓出来”的。
这些零散但快速涌现的案例,其实指向了同一个变化方向——
3D高斯泼溅,正在从“展示介质”,变成“生产力工具”。
这种转变背后,是因为行业开始意识到:比起“能在手机上跑”,更重要的是有一套能让3D数据真正进入工作流的基础设施。
在深挖这些硬核应用背后的支撑技术时,我们发现了一个有趣的现象:


