字节跳动继续加码 AI 基础设施,预算据称上调到 2000 亿元

500

这几年看中国互联网公司做 AI,我越来越觉得,真正的分水岭不在发布会,而在账本和机房。

模型可以一天发一个版本,应用可以一周换一轮玩法。可到了公司内部,事情会很快变得具体:GPU 从哪里来,数据中心放在哪里,推理成本怎么算,海外业务怎么跑,国内模型服务怎么稳住,供应链风险谁来兜底。这些问题不热闹,但它们决定一家大厂能不能把 AI 当成长期生意来做。

所以看“字节跳动继续加码 AI 基础设施,预算据称上调到 2000 亿元”这件事,不能只盯一个数字。2000 亿元这个口径目前更像市场传闻或上限想象,公开报道里更常见的是 2025 年资本支出超 1500 亿元、2026 年 AI 基础设施预算约 1600 亿元,以及其中约 850 亿元用于 AI 处理器采购。字节也曾多次回应匿名预算消息“不准确”。但即便把数字打个折,方向也很清楚:字节正在把 AI 基础设施当成核心战场。

500

字节不是单纯做一个大模型实验室。它有豆包、即梦、扣子、火山引擎,也有 TikTok、剪映和广告系统。每个产品往 AI 上走,都会放大推理需求。

过去互联网公司拼的是流量、算法和产品迭代。到了 AI 阶段,前台还是这些东西,后台开始多了一张更重的表:芯片、服务器、网络、存储、液冷、机房、电力、海外数据中心租赁。

如果把字节这轮投入拆开看,大概有三层。

500

第一层是芯片。公开报道里反复出现英伟达 H20、H200,也出现华为、寒武纪等国产芯片供应商。这里真正要看的不是“买哪张卡”这么简单,而是训练和推理开始分工。训练更依赖高端 GPU 和海外资源,推理更看成本、稳定性和规模部署。字节如果要让豆包、即梦、扣子这类产品长期跑起来,推理侧的单位成本会越来越关键。

第二层是数据中心和网络。AI 不是把卡买回来就完事。大规模集群要看机房位置、电力接入、网络带宽、故障恢复和运维体系。国内业务有合规和供应链约束,海外业务又要考虑 TikTok、模型服务和当地数据中心资源。字节如果持续租赁海外数据中心,实际是在为全球业务保留训练和服务能力。

第三层是工程组织。很多人容易把 AI 基础设施看成采购部门的事,但到这个规模,采购只是开头。芯片到货以后,谁负责集群调度,谁优化推理引擎,谁处理模型服务的峰值流量,谁盯成本和可用性,这些才是真正拉开差距的地方。

500

字节为什么会在这个时间点继续加码?一个原因是豆包已经把用户规模做出来了。大 DAU 产品深度接入模型,推理消耗会从实验室问题变成经营问题。另一个原因是视频生成、图像生成、Agent 工作流都在变重。

还有一个更现实的原因:AI 基础设施正在变成大厂竞争的入场券。阿里、腾讯、百度、华为都在用不同方式加码算力和模型服务。字节没有云计算时代那么深的 ToB 基础,但它有更强的 C 端产品和内容场景。一旦 AI 应用爆发,字节最怕的不是没有用户,而是有用户、有场景,却被算力成本和供给卡住。

500

所以这轮投入如果属实,真正的信号不是“字节很有钱”,而是它开始用基础设施方式做 AI。过去做应用,可以靠产品迭代快速试错。现在做 AI,需要提前押注供给:芯片要锁,机房要建,团队要配,推理成本要压。

风险也很明显。第一是供应不确定性,尤其是高端 GPU 和出口规则。第二是投入回收周期,巨额资本支出会带来折旧压力。第三是路线选择,多条路线并行,工程复杂度会非常高。

500

我对这件事的判断是:不要把 2000 亿元当成已经坐实的数字,更应该把它当成一个产业信号。中国互联网大厂的 AI 竞争,已经从模型和应用前台,打到电力、芯片、机房、网络和推理成本后台。字节这一轮加码,表面是预算,背后是它想把豆包、即梦、扣子、火山引擎和全球业务接进同一套算力底座。

AI 越往后越重。谁能把应用需求、芯片供给、数据中心、推理引擎和成本控制接成一条线,谁才有机会把前台的产品热度变成长期的产业位置。

文|龚海瀚

站务

全部专栏