全球一年产生多少token,中国占比多少?

全球一年产生多少token,中国占比多少?了解下市场全貌,内部业务中国token占优,外部业务美国占优。

1. 全球一年生产的token数量,已经到了极为惊人的程度。数量级达到了10的16次方,人们较常听到的“万亿”是10的12次方(Trillion),西方媒体较常用的10亿是10的9次方(Billion)。全球token数用的量级叫“千万亿”是10的15次方(quadrillion),2025年产生的token数量是几十“千万亿”。

2. 最近不少媒体借OpenRouter的统计说中国大模型输出Token数超过美国大模型,这是错误理解。相关数据是,2月9-15日这周,中国大模型在OpenRouter平台输出4.12万亿token,超过美国的2.94万亿;2月16-22日,中国大模型更是以5.16万亿大幅超过美国2.7万亿。这个平台的token量级非常小,每周7万多亿,一年也就400万亿,还不到1“千万亿”,占全球token数量也就2%。中国大模型在这个AI开发者喜欢的平台占优了,但它不是主要的token生产平台,全是B端客户。全球主要的token是C端用户相关的。

2. 中国输出token最多的是豆包,2025年12月日均有50万亿个token,这样月度token就有1.5“千万亿”,同比十倍,19个月400倍。美国谷歌2025年10月大约生产了1.3“千万亿”的token,18个月130倍。2023年谷歌就是全球生产token最多的,远超OpenAI的大模型问答,主要是人们日常搜索时,谷歌引擎会输出token进行AI overview“总结”,但这是老模式。随着大模型token应用爆发百倍增长,搜索量不怎么增长,用于搜索总结的token占比就不高了。现在谷歌的token主要是Gemini对话,月活有7.5亿了,长文本和视频多模态交互,还有企业API调用。

3. 人们熟悉的大模型问答应用token爆发增长,OpenAI在2025年10月(不含微软Azure用OpenAI大模型输出的)有260万亿每月,达到了谷歌的约五分之一,而Anthropic大约是OpenAI的五分之一。为何大模型公司生产的token数不如谷歌与豆包?这是因为谷歌与字节有大量的内部应用场景,而纯大模型公司没有。如豆包85-90%的Token用于字节内部业务,抖音AIGC特效就占了70%的应用,还有内容审核、推荐算法增强、创作者工具要用,谷歌的搜索总结、YouTube视频理解审核字幕生成、软件自动内容功能、广告系统。视频与图片处理特别消耗token数量。

4. 中国还有不少互联网公司类似字节,也进行大量的视频图片文字内容的内部token业务。目前中国公司生产的token数量大约是美国公司的1.2-1.5倍,因为中国公司AI内部应用非常活跃。中国公司生产的token达到了每月2.3“千万亿”的级别,但大部分是字节干的,视频业务太厉害了,到全球去了。美国大部分是谷歌干的,也是视频业务多。

5. 但要注意,内部业务是不收费的,市场看重的是能收费的外部业务。OpenRouter是每月10万多亿token的量级,当然2月因为中国大模型的火爆增长比较高,但仍然只有OpenAI的1/20。综合考虑,美国大模型外部业务输出token大约是中国的4-6倍。中国大模型在本土以外的渗透率仍然不高,美国垄断了美欧、日韩、东南亚市场。但2024年底中国与美国差距是10倍,2025年追上了不少。如果未来,中国大模型的外部调用token数量,能有美国的1/2到1/3,都是非常不错的进展。

6. 总体来说,全球大部分的token就是字节与谷歌两个公司生产的,都占30%多。别的所有公司加起来才顶上一家。因为字节和谷歌在视频内容平台有垄断地位,用token特别多,视频场景Token密度是文本对话的100-1000倍。但如果是tokenomics用token去赚钱,市场关注的就是ChatGPT、Gemini、Claude这些收费高、月活高的应用,中国大模型低价或者免费的token份额也很重要。目前美国公司在收费token数量上有5倍优势,单价更是高得多。但中国在追近数量差距倍数,而低价对美国公司token的高单价构成挑战。

500

站务

最近更新的专栏

全部专栏