一周时间,谷歌就让OpenAI认清现实钛媒体

1/20/2026

究竟是什么样的更新,才能让谷歌CEO皮查伊称之为“众望所归”(Answering a top request from our users)?

那就是谷歌Gemini最新的Personal Intelligence功能。

它通过用户Gmail、Google Photos、YouTube和搜索等应用的数据,让AI能够跨数据源推理,提供个性化回答。真正意义上实现了AI全能管家。

几乎同时,谷歌还与苹果达成多年期合作,Gemini 3将成为新版Siri的技术底座。还有通用商务协议的发布。一系列动作密集而迅猛。

资本市场的反应也是立竿见影,Alphabet市值突破4万亿美元,19年来首次超越苹果。

这一系列更新背后,是谷歌全栈优势的体现。

从硬件到软件,得益于谷歌在AI产业链的每个环节都有布局,而他们也正在用技术栈控制越来越多的生态。

谷歌释放的信号很明确,不仅要赢,还要赢得更彻底。

技术代差可以追赶,资金差距可以弥补,但生态位的差距一旦形成,OpenAI们可能就永远无法追赶上谷歌了。

谷歌和苹果的合作,是一次世纪握手。

1月12日,两家公司联合宣布达成多年期合作协议,Gemini 3将成为下一代苹果智能(Apple Intelligence)的技术底座。

这次合作并非单纯的提供基座大模型那么简单。文章《“套壳”谷歌Gemini,但苹果还没死心自研模型》中提到,Gemini作为后台训练导师与复杂任务处理引擎(负责信息摘要、跨应用调度等),苹果自研模型处理本地敏感数据。

所有用户交互与数据流转通过苹果私有云完成,Siri控制权与隐私标准仍由苹果掌控,核心落地场景为今年晚些时候推出的新版个性化Siri。

根据外媒报道,这笔交易预计每年为谷歌带来约10亿美元的收入,但更重要的价值是数据。Siri每天处理约15亿次请求,这些交互数据将进一步强化Gemini的Agent能力。

即便不触碰任何用户的敏感数据,但是Gemini依然会了解用户的需求和处理结果。因此,当用户习惯在新版Siri中完成各种任务时,谷歌就掌控了从用户意图到应用执行的完整链条。

几乎在同一时间,谷歌在美国零售联合会推出通用商务协议(Universal Commerce Protocol,UCP)。这是一个开源的AI电商标准,可以让AI代理与商业系统无缝对接。

谷歌与Shopify、Walmart、Target、Wayfair、Etsy等20余家零售和支付巨头联手打造这一协议,使用户可以直接在Gemini应用和AI Mode中完成商品搜索、比价、下单和支付,无需跳转到商家网站。

这种“原生结账”体验彻底改写了电商的流量逻辑,入口从独立电商网站转移到了AI对话界面。

在零售端,Gemini还接入了Google Shopping Graph。这是一个包含超过百亿商品信息的知识库,支持AR虚拟试穿、价格保护、实时库存查询等功能。

说回谷歌的Personal Intelligence功能,它与ChatGPT仅能参考过往对话历史不同,这个功能主打的是可以跨应用推理,分析数据点之间的关系。

谷歌提供的案例显示,当用户站在轮胎店排队却不知道自己的2019款本田小型货车需要什么型号的轮胎时,Gemini可以从Google Photos中识别车辆配置,从Gmail收据中找到车牌详细信息,然后建议不同的选项。

比如一种适合日常驾驶,另一种适合全天候条件,参考的是在Google Photos中找到的家庭前往俄克拉荷马州的公路旅行记录。

用户可以单独控制每个数据源的访问权限,在隐私保护和功能体验之间取得平衡。

谷歌强调,Gemini不会直接在Gmail收件箱或Google Photos库上进行训练,而是仅使用“有限信息,如Gemini中的特定提示和模型的响应”来改进这一能力,且会采取措施过滤或模糊对话中的个人数据。目前该功能已向AI Pro和Ultra订阅用户开放测试。

AI产业正在进入一个被称之为“inference economics”(推理经济学)的时代。

在这个时代,竞争优势不再由训练模型的参数量定义,而是由“以最低成本提供有用信息”的能力决定。而谷歌在这方面的布局堪称教科书级别。

谷歌使用自研的TPU芯片训练模型,它的优势主要集中体现在在推理环节上。

这是因为GPU每做一次运算,都要频繁地从缓存或内存(HBM)中读写数据。这种“存取-计算-存取”的循环在推理时会消耗大量带宽和电力。

TPU让数据在处理单元之间直接传递。一旦权重加载进阵列,数据流进去就能连续完成成千上万次乘加操作,无需中间写回内存。

不仅如此,为了兼顾图形渲染、科学计算等任务,GPU拥有复杂的调度逻辑、分支预测和指令缓存。这些在纯粹的推理运算中属于“无效载荷”,但又必须耗费计算资源。

TPU剥离了所有非AI相关的电路。在推理时,由于模型结构是固定的,TPU能以极高效率的批处理(Batching),几乎没有时钟周期被浪费在指令调度上。

此外,谷歌在TPU Pod中使用了自研的OCI(光学电路交换)技术。

相比于英伟达依赖的电缆和 NVLink 开关,谷歌的光学互联能以更低的功耗提供数 Tbps 的跨芯片带宽。这使得 TPU 在处理超长上下文或超大模型推理时,通信开销更小。

当Gemini每天处理数十亿次查询时,每次推理哪怕只节省几美分,累积下来就是数亿美元的成本优势。

更深层的优势体现在商业模式上。

谷歌并不追求AI订阅收入的最大化,Gemini Advanced的定价策略比ChatGPT Plus更便宜,甚至在某些场景下完全免费,比如edu账号可以全年免费。

谷歌的战略是“羊毛出在猪身上”,强化生态锁定、增加用户停留时间、提升广告定向精度。

根据财报,谷歌约80%的收入仍然来自广告。对于谷歌来说,AI 并不是一个新生意,而是一次“广告引擎的史诗级大修”。

谷歌将Gemini深度嵌入。用得越多,用户的数据画像就越清晰,广告推送也就越精准。

不仅如此,传统的蓝色链接是搜索引擎让你尽快离开,点击去别的网站。

但是和Gemini对话截然相反,谷歌需要用户继续留在Gemini里。用户停留时间越长,展示高价值广告的机会就越多。

谷歌不靠卖AI赚钱,而是用AI让现有的广告生意变得更赚钱。

迭代速度的优势同样关键。

从DeepMind的研究idea到TPU的芯片优化,再到模型训练和产品部署,谷歌可以在一个闭环内完成整个链条。

而像OpenAI这样的AI企业,想要更新就需要协调微软的Azure云、英伟达的芯片供应、第三方的数据合作,决策链条冗长,响应速度必然慢半拍。

在AI军备竞赛的“以周计算”节奏中,这种速度差异可能决定市场窗口的得失。

所以谷歌才会更新得越来越快,同时他们还在扩大优势,形成“赢家总赢”的局面。

打下推理成本后,通过与苹果的合作,谷歌获得了大量的Siri请求数据,相当于ChatGPT日均25亿次提示词的60%。而通过UCP,谷歌还将在电商AI入口的争夺战中抢得先机。

这不是简单的技术合作,而是对流量分发权的重新定义。

数据飞轮是谷歌最难以复制的护城河。谷歌拥有Search、YouTube、Gmail、Maps等九个用户超过10亿的产品,每天产生的数据量远超任何竞争对手。

Personal Intelligence功能的推出,让这些数据首次被深度整合到AI体验中。

用户每一次与Gemini的交互,都在强化模型对个体偏好的理解,形成正反馈循环。这种“数据→模型→体验→更多数据”的飞轮效应,是OpenAI等独立AI公司难以企及的。

Scroll for more