Sora已死,谷歌当立新智元
无论最终叫Veo 4还是Gemini Omni,这次泄露已足够震撼:AI视频不再是短视频工具,而是拥有导演思维的叙事生产力。谷歌I/O当天,答案即将揭晓,而整个行业,都将重新洗牌。
谷歌I/O大会开幕在即,Veo4 提前曝光!
此前,教授黑板推公式,逼真视频刷屏全网——
现在,网友猜测Veo 4/Omni可以生成完整的多角度场景,在保持连贯性的同时流畅切换透视。
它还升级了原生音频同步功能,支持对话、环境音和音乐。
视频片段最长可达9秒,分辨率为720p。
部分泄露示例中仍存在连贯性问题,但完全同步的多机位场景看起来确实令人印象深刻。
这次关于Veo 4(或Gemini Omni) 的泄露,绝不仅仅是参数的微调.
它更像是一场关于「叙事权」的底层革命。
当AI开始学会从多个角度审视同一个瞬间,它实际上已经从「画匠」进化成了拥有空间逻辑的「导演」。
曝料人Pankaj Kumar甚至推测,谷歌应该轻松直出15秒视频,但缺算力。所以,谷歌要聚焦于效率问题。
但要注意,目前只有Kumar一个人的转述,是Veo4还是Gemini Omni,静待谷歌I/O揭晓。
AI视频学会了「切镜头」
为什么「多机位」这件事会让人炸毛?
回到一年前。
Sora横空出世那会儿,所有人惊叹的是「AI能拍60秒电影了」。
但你仔细看就会发现一个问题:那60秒里,镜头是不动的,或者说,是连续的。
机位在场景里平滑滑动、推拉摇移,但没有「切」。
Runway Gen-4等所有同行产品都一样,生成出来的视频本质上是「一个长镜头」,哪怕镜头在动,也是同一台摄影机的连续位移。
为什么不能切?
因为对AI来说,「切镜头」意味着同一场景、同一组人物、在同一时刻、从完全不同的视角再生成一次,而且要保证服装颜色、桌上的杯子位置、人物表情连贯。
这是物理一致性、空间一致性、时间一致性三重压力叠加,业界一年来都在硬碰硬地啃,没人真做出来。
传统影视行业的从业者会告诉你,这件事在剧组里叫「机位调度」,是导演的工作,而非单纯摄影。
摄影师管「这个画面好不好看」,导演管「这场戏怎么切才看得懂、看得爽」。
多机位的本质,是把场景拆成「叙事」。
Pankaj Kumar的爆料如果属实,那Veo 4把这件事从「导演」压进了「模型权重」。
换句话说,你不再是「让AI拍一个镜头」,而是「让AI拍一场戏」。
这是个量级跃迁。
过去, AI视频是「短视频素材生产工具」,可以做点开头转场、做点背景画面。
这次,AI终于升级成「叙事生产工具」。
当然,前提是泄露属实、I/O当天演示真的能跑通。
同步音频补齐了最后一块拼图
爆料里第二个被反复提到的点,是音频。
具体说法是:Veo 4 原生生成同步对话、环境音,甚至会根据画面情境自动配背景音乐。
Veo 3已能做原生音频了,这不是Veo 4的新发明。
去年,5月Veo 3发布时,谷歌宣传的最大亮点之一就是「native audio」:视频里的脚步声、对话声、环境噪音都跟画面一起在模型里生成出来,不用后期对齐。
这一招把Veo 3从同行里拔了出来。
但有两个东西Veo 3没做好。


