谷歌不想赢英伟达

500

撰文|版君

编辑|画画

英伟达和谷歌,两场大会,两个人,说了同一个词。

3月16日,圣何塞,GTC 2026。黄仁勋把数据中心定义为"生产Token的工厂",并给出一个惊人的判断,到2027年,这个市场的需求规模至少1万亿美元。

4月22日,拉斯维加斯,Google Cloud Next 2026。桑达尔·皮查伊给出另一组数字:谷歌每分钟处理160亿个token,上个季度还是100亿。今年资本开支1750亿到1850亿美元。

两个人都在谈Token。但一个在描述供给,一个在展示消耗。

过去很长一段时间,外界习惯性地把谷歌放在追赶者的位置。

这个判断,正在失效。

把这两场大会放在一起看,会发现一个更关键的变化:这不是同一场竞争。

一、卖铲子的,和造工厂的

理解这两家公司,先要看清它们各自在卖什么。

英伟达的产品,是生产资料。

GPU是通用算力,从OpenAI到Meta,从字节跳动到主权基金,几乎所有头部AI玩家,都在它的客户名单里。

CUDA生态汇聚超600万全球开发者、900余个CUDA-X加速库,二十年持续迭代的生态飞轮,早已成为AI时代算力底层的标准件。

黄仁勋那句判断很有代表性:即便竞争对手的架构是免费的,也未必足够便宜。

2025财年,NVIDIA数据中心业务收入超过1150亿美元,同比增长超过200%,毛利率在75%以上,在全球AI加速器市场占据约80%的份额。

换句话说,每10块AI算力芯片里,至少有8块来自英伟达。

这是一门典型的卖铲子的生意,而且是所有人都离不开的那种。

谷歌的路径完全不同,它提供的不是单一工具,而是一整套运行体系。

自研TPU芯片、训练Gemini模型、运行在Cloud之上,再对外提供服务。从底层算力到上层应用,全部打通。

目前Google云业务年收入已接近600亿美元,过去一年增长接近50%,AI相关需求成为最核心的驱动力。

这种模式更像是自己搭建了一座完整的工厂,再把多余的产能对外输出。

英伟达的逻辑,是把设备卖给所有人。谷歌的路径,则是先把体系跑起来,再让别人接入。

一个掌握生产资料,一个在组织生产过程。

二、TPU一刀切两半

这次谷歌Cloud Next,TPU最值得注意的变化,不在参数,而在结构。

从 2017 年 TPU v2 起至 2025 年 v7 Ironwood,整整六代产品,谷歌始终采用单颗通用芯片同时承载大模型训练与推理任务。

直到这次发布第八代 TPU,谷歌首次彻底战略转向,将训练、推理拆分为两颗专属独立芯片(TPU 8t、TPU 8i)。

TPU 8t,代号Sunfish,博通设计,台积电2nm工艺,专门做训练。单个超级Pod(9600颗芯片)峰值算力121 EFLOPS(FP4精度),是上一代的2.8倍,价格相同。能把前沿模型的开发周期从数月缩短到数周。

TPU 8i,代号Zebrafish,联发科设计,这是联发科第一次进入超大规模数据中心芯片领域,专门做推理。性价比比上代提升80%,集合操作延迟降低最高5倍。

分家的原因很直接,Agent时代,推理和训练的负载特征完全不同。

一个智能体完成任务,往往需要多次调用模型,每一次调用都要求低延迟、高并发。这和训练阶段的集中算力需求完全不同。

一颗芯片同时跑训练和推理,哪头都凑合,哪头都不够好。

背后的算账逻辑很清楚。训练是一次性投入,模型训好就行。推理是持续性消耗,用户每用一次就推理一次。

当token规模从100亿/分钟跃升到160亿/分钟,推理端的效率开始直接决定成本结构。

这也解释了两家公司技术路径的差异。英伟达持续优化单颗芯片性能,谷歌更关注集群效率与整体成本。

三、Anthropic的一百万颗芯片

TPU从内部工具走向外部市场,有一个明显的标志,开始承载头部模型公司的核心负载。

2025年10月,Anthropic与谷歌签了一份多年期协议,最多使用100万颗Ironwood TPU,价值数百亿美元。

这是AI历史上最大的单笔算力交易。

紧接着,Meta传出正在考虑从2027年起部署TPU。消息一出,英伟达股价当天大跌。

这一系列动作,对英伟达来说,是最危险的信号。不是某个小公司在试水,是Anthropic,是Meta,全球头部的大模型公司,都要把自家最核心的推理负载全部押在了TPU上。

谷歌的策略很明确:用Anthropic和Meta做样板客户,证明TPU能替代英伟达,然后通过Cloud平台把TPU算力卖给所有企业。

如果说英伟达的优势在软件生态,CUDA形成了强绑定。谷歌的突破口,则来自成本。

Ironwood TPU的核心目标是显著降低总拥有成本。精密分析显示,其每美元性能/价格比较前代提升2倍,相比NVIDIA B200在总拥有成本上具有约30%~41%的优势,可有效帮助企业控制推理成本。

当推理成本被压到对手的一半以下,软件壁垒就开始松动了。因为企业算账的时候,省下来的钱足够覆盖迁移成本。

技术壁垒依然存在,但经济驱动开始改变选择。

四、160亿token背后的真话

皮查伊在Cloud Next上说了三个数字:160亿token每分钟。75%的新代码由AI生成。今年投入1750亿到1850亿美元。

看起来分散,其实指向同一件事。

这些token,不只是API调用,还包括搜索、广告、YouTube推荐、安全系统和内部开发。

从100亿到160亿,单季度增长超过60%,按这个规模估算,谷歌每天处理的token已经达到万亿级。

作为对比,当前头部模型公司的API调用,大致处在数百亿到千亿token/天的区间。

谷歌的体量,已经超出单一模型公司的范畴,更接近一个基础设施级消费体。

这和黄仁勋提出的"Token工厂",形成了一个有意思的对照。

黄仁勋描述的是一个卖方市场。Token是商品,GPU是生产设备,价格分五个层级,从免费到150美元每百万token。你来买设备,生产Token,卖给你的客户。

他在GTC上连Token的定价体系都替行业设计好了。

英伟达围绕供给侧构建体系,谷歌则在放大需求侧规模。

一个定义产能,一个吞下产能。而长期来看,需求会反过来塑造供给。

谷歌对TPU性价比的优化动力,远超任何外部客户,因为每降低一分钱的推理成本,省下来的钱首先进了自己的口袋。本质上,谷歌自己就是全世界最大的Token消费者。

五、谁会赢?

短期看,英伟达赢。CUDA生态的壁垒、80%的市场份额、75%以上的毛利率,这些不会一夜被颠覆。

黄仁勋直言,到2027年英伟达将迎来至少1万亿美元的确定性算力需求;其中60%来自全球前五大超大规模云厂商,剩余40%分散于企业私有部署、主权云、边缘计算及全行业场景。

这份预判,有着十足的底气。

但谷歌正在把竞争拉到英伟达不擅长的维度。

这次Cloud Next上,GE在谷歌的Agent平台上跑了超过800个智能体,覆盖制造、物流和供应链。毕马威首月部署超过100个智能体,90%的员工在用。默克签了10亿美元合同。

谷歌云CEO库里安还确认,基于Gemini构建的苹果新一代Siri将于今年发布,合作每年价值约10亿美元。

当企业客户的需求从一块GPU变成了帮我管住一千个Agent,卖芯片的就比不过卖系统的了。

英伟达解决的是有没有算力,谷歌要解决的是算力怎么被用起来。

这不是谁杀死谁的故事。就像石油行业既有卖钻头的哈里伯顿,也有自己钻井、炼化、零售一条龙的沙特阿美。两种模式会长期共存。

但有一件事正在发生变化。

过去,英伟达是所有人的唯一选择。现在,谷歌证明了另一条路走得通。Anthropic选了TPU,Meta在考虑TPU,苹果把Siri交给了谷歌Gemini。

选择变多了。对垄断者来说,这就是最大的威胁。

ChatGPT出来后的两年多,谷歌看起来像一个追赶者。但Cloud Next讲了一个不同的故事,谷歌没有赢模型竞赛,但它把AI重新变回了一个基础设施问题。

而做基础设施,恰好是谷歌最擅长的事。

谷歌不是在追英伟达,也并非想在芯片战场打败英伟达。

从一开始,它们跑的就不是同一场比赛。

【版面之外】的话:

AI的上半场,是训练模型。下半场,是管理智能体。终局,可能是控制系统。

黄仁勋说Token是新的大宗商品。皮查伊说谷歌每分钟消耗160亿个。一个在定义市场,一个在吃下产能。

如果说上一轮互联网的入口是App,这一轮AI入口不是模型,是系统。

而系统一旦形成,就不会轻易更换。

英伟达 vs 谷歌AI战略

站务

全部专栏