一周时间,谷歌就让OpenAI认清现实钛媒体
究竟是什么样的更新,才能让谷歌CEO皮查伊称之为“众望所归”(Answering a top request from our users)?
那就是谷歌Gemini最新的Personal Intelligence功能。
它通过用户Gmail、Google Photos、YouTube和搜索等应用的数据,让AI能够跨数据源推理,提供个性化回答。真正意义上实现了AI全能管家。
几乎同时,谷歌还与苹果达成多年期合作,Gemini 3将成为新版Siri的技术底座。还有通用商务协议的发布。一系列动作密集而迅猛。
资本市场的反应也是立竿见影,Alphabet市值突破4万亿美元,19年来首次超越苹果。
这一系列更新背后,是谷歌全栈优势的体现。
从硬件到软件,得益于谷歌在AI产业链的每个环节都有布局,而他们也正在用技术栈控制越来越多的生态。
谷歌释放的信号很明确,不仅要赢,还要赢得更彻底。
技术代差可以追赶,资金差距可以弥补,但生态位的差距一旦形成,OpenAI们可能就永远无法追赶上谷歌了。
谷歌和苹果的合作,是一次世纪握手。
1月12日,两家公司联合宣布达成多年期合作协议,Gemini 3将成为下一代苹果智能(Apple Intelligence)的技术底座。
这次合作并非单纯的提供基座大模型那么简单。文章《“套壳”谷歌Gemini,但苹果还没死心自研模型》中提到,Gemini作为后台训练导师与复杂任务处理引擎(负责信息摘要、跨应用调度等),苹果自研模型处理本地敏感数据。
所有用户交互与数据流转通过苹果私有云完成,Siri控制权与隐私标准仍由苹果掌控,核心落地场景为今年晚些时候推出的新版个性化Siri。
根据外媒报道,这笔交易预计每年为谷歌带来约10亿美元的收入,但更重要的价值是数据。Siri每天处理约15亿次请求,这些交互数据将进一步强化Gemini的Agent能力。
即便不触碰任何用户的敏感数据,但是Gemini依然会了解用户的需求和处理结果。因此,当用户习惯在新版Siri中完成各种任务时,谷歌就掌控了从用户意图到应用执行的完整链条。
几乎在同一时间,谷歌在美国零售联合会推出通用商务协议(Universal Commerce Protocol,UCP)。这是一个开源的AI电商标准,可以让AI代理与商业系统无缝对接。
谷歌与Shopify、Walmart、Target、Wayfair、Etsy等20余家零售和支付巨头联手打造这一协议,使用户可以直接在Gemini应用和AI Mode中完成商品搜索、比价、下单和支付,无需跳转到商家网站。
这种“原生结账”体验彻底改写了电商的流量逻辑,入口从独立电商网站转移到了AI对话界面。
在零售端,Gemini还接入了Google Shopping Graph。这是一个包含超过百亿商品信息的知识库,支持AR虚拟试穿、价格保护、实时库存查询等功能。
说回谷歌的Personal Intelligence功能,它与ChatGPT仅能参考过往对话历史不同,这个功能主打的是可以跨应用推理,分析数据点之间的关系。
谷歌提供的案例显示,当用户站在轮胎店排队却不知道自己的2019款本田小型货车需要什么型号的轮胎时,Gemini可以从Google Photos中识别车辆配置,从Gmail收据中找到车牌详细信息,然后建议不同的选项。
比如一种适合日常驾驶,另一种适合全天候条件,参考的是在Google Photos中找到的家庭前往俄克拉荷马州的公路旅行记录。
用户可以单独控制每个数据源的访问权限,在隐私保护和功能体验之间取得平衡。
谷歌强调,Gemini不会直接在Gmail收件箱或Google Photos库上进行训练,而是仅使用“有限信息,如Gemini中的特定提示和模型的响应”来改进这一能力,且会采取措施过滤或模糊对话中的个人数据。目前该功能已向AI Pro和Ultra订阅用户开放测试。
AI产业正在进入一个被称之为“inference economics”(推理经济学)的时代。
在这个时代,竞争优势不再由训练模型的参数量定义,而是由“以最低成本提供有用信息”的能力决定。而谷歌在这方面的布局堪称教科书级别。
谷歌使用自研的TPU芯片训练模型,它的优势主要集中体现在在推理环节上。
这是因为GPU每做一次运算,都要频繁地从缓存或内存(HBM)中读写数据。这种“存取-计算-存取”的循环在推理时会消耗大量带宽和电力。
TPU让数据在处理单元之间直接传递。一旦权重加载进阵列,数据流进去就能连续完成成千上万次乘加操作,无需中间写回内存。
不仅如此,为了兼顾图形渲染、科学计算等任务,GPU拥有复杂的调度逻辑、分支预测和指令缓存。这些在纯粹的推理运算中属于“无效载荷”,但又必须耗费计算资源。
TPU剥离了所有非AI相关的电路。在推理时,由于模型结构是固定的,TPU能以极高效率的批处理(Batching),几乎没有时钟周期被浪费在指令调度上。
此外,谷歌在TPU Pod中使用了自研的OCI(光学电路交换)技术。
相比于英伟达依赖的电缆和 NVLink 开关,谷歌的光学互联能以更低的功耗提供数 Tbps 的跨芯片带宽。这使得 TPU 在处理超长上下文或超大模型推理时,通信开销更小。
当Gemini每天处理数十亿次查询时,每次推理哪怕只节省几美分,累积下来就是数亿美元的成本优势。
更深层的优势体现在商业模式上。
谷歌并不追求AI订阅收入的最大化,Gemini Advanced的定价策略比ChatGPT Plus更便宜,甚至在某些场景下完全免费,比如edu账号可以全年免费。
谷歌的战略是“羊毛出在猪身上”,强化生态锁定、增加用户停留时间、提升广告定向精度。
根据财报,谷歌约80%的收入仍然来自广告。对于谷歌来说,AI 并不是一个新生意,而是一次“广告引擎的史诗级大修”。
谷歌将Gemini深度嵌入。用得越多,用户的数据画像就越清晰,广告推送也就越精准。
不仅如此,传统的蓝色链接是搜索引擎让你尽快离开,点击去别的网站。
但是和Gemini对话截然相反,谷歌需要用户继续留在Gemini里。用户停留时间越长,展示高价值广告的机会就越多。
谷歌不靠卖AI赚钱,而是用AI让现有的广告生意变得更赚钱。
迭代速度的优势同样关键。
从DeepMind的研究idea到TPU的芯片优化,再到模型训练和产品部署,谷歌可以在一个闭环内完成整个链条。
而像OpenAI这样的AI企业,想要更新就需要协调微软的Azure云、英伟达的芯片供应、第三方的数据合作,决策链条冗长,响应速度必然慢半拍。
在AI军备竞赛的“以周计算”节奏中,这种速度差异可能决定市场窗口的得失。
所以谷歌才会更新得越来越快,同时他们还在扩大优势,形成“赢家总赢”的局面。
打下推理成本后,通过与苹果的合作,谷歌获得了大量的Siri请求数据,相当于ChatGPT日均25亿次提示词的60%。而通过UCP,谷歌还将在电商AI入口的争夺战中抢得先机。
这不是简单的技术合作,而是对流量分发权的重新定义。
数据飞轮是谷歌最难以复制的护城河。谷歌拥有Search、YouTube、Gmail、Maps等九个用户超过10亿的产品,每天产生的数据量远超任何竞争对手。
Personal Intelligence功能的推出,让这些数据首次被深度整合到AI体验中。
用户每一次与Gemini的交互,都在强化模型对个体偏好的理解,形成正反馈循环。这种“数据→模型→体验→更多数据”的飞轮效应,是OpenAI等独立AI公司难以企及的。


