错过英伟达?下一轮AI大机遇藏在“算力新基建”里

500

2025年下半年,谷歌、微软、Meta继续挥舞着百亿美元的支票,争先恐后地抢购英伟达的高端芯片;甲骨文凭借云架构与OpenAI等大客户达成4550亿美元RPO,引发市场狂热。

中国的科技巨头们,也在进一步加码算力基础设施。百度智能云在2025云智大会提出从万卡到十万卡的超大规模智算集群;腾讯云在2025腾讯全球数字生态大会上强调异构计算平台已适配主流国产芯片,以缓解业界关注的算力供应压力;阿里云也将在几天后召开的2025云栖大会上,发布年度云与AI全站技术。

500

所有人都意识到,随着大模型的应用奇点逼近,算力正如百年前的电力,即将成为驱动商业变革的“新能源”。一场围绕AI算力的军备竞赛已进入白热化。

随之而来的是,资本市场对算力基础设施板块的重估潮,比如以寒武纪为代表的AI芯片板块大幅增长。

那么,除了AI芯片,在这场注定重塑全球科技格局的“淘金热”中,还有哪些提供铲子的“卖水人”,将迎来属于它们的价值发现时刻?

模型越进化,算力焦虑越大?

如果说2023年是全球科技界对大模型能力的惊叹之年,那么到2025年,这种惊叹已迅速转化为一种更为务实和紧迫的情绪:算力焦虑。

这种焦虑写在科技巨头的财报巨额资本支出或者采购清单上。训练更大、更复杂的模型,并将它们推向亿万用户,这场竞赛的入场券永远绕不开最简单也最昂贵的硬通货:算力。

模型迭代和应用落地都需要算力。在训练端,模型的进化呈现出近乎“暴力”的scaling law(规模定律)。

随着参数数量的增长,每一次升级都意味着对计算资源的成倍索求。比如,OpenAI的训练日志显示单词迭代成本突破2亿美元,GPT-5训练成本较前代显著提升,OpenAI的财务团队不得不和微软协议重谈。这反映了大模型研发的高投入特性。

同时,训练需求只是算力新基建故事的起点。随着模型走向规模化应用,更庞大、更持续的需求将来自于推理端,也就是让训练好的模型真正去回答用户问题、生成图片、处理数据的过程。

大模型的迭代与能力增强打开应用空间,也让机构分析师们纷纷上调了对上游算力芯片和云计算服务的预测。模型在实际场景中被频繁调用,尤其是在面向亿级用户的产品里,每一次交互都伴随推理计算与能耗开支。

OpenAI发布了GPT-5后,CEO在X表示,5个月内要使公司算力资源翻倍。无独有偶,谷歌也表示Gemini 系列模型现在每月处理 480 万亿个token,在短短十二个月内,处理量增长了50倍。这揭示了更广阔的应用需求下,Tokens消耗量高速增长的机遇。

500

当AI服务从“可用”走向“好用”,当响应速度、并发能力与成本效率成为能否商业化的关键,推理算力便呈现出指数级增长的特征。

在中国市场,这一趋势同样明显。比如,抖音、快手把AI能力深度植入短视频与电商推荐链路,以提升用户体验与变现效率;Kimi、Minimax这样的AI原生企业,持续更新模型并扩大部署,每增加一个活跃用户,都意味着持续的算力支出。

面对新兴产业发展的紧迫需求,宏观的“大手”也开始发挥推动算力基础设施建设的作用。中国工信部已提出要有序推进算力建设并加快关键芯片技术突破。这既是产业政策的引导,也是向市场释放的强烈信号,算力基础设施已上升到影响国家竞争力的战略高度。

因此,像寒武纪等算力相关个股的上涨,反映了市场对这一确定性趋势的提前定价。无论是国家还是企业,都在为一个智能无处不在的未来准备“电力”。

谁掌握了充沛且高效的算力,且在能效、成本与生态兼容性上形成竞争壁垒,谁才能拿到通往AI下一个时代的“船票”。

决定算力竞赛的三个关键词

在AI渗透千行百业的时代背景下,算力链投资来到更加注重综合优势的阶段。

能否用得上、用得起、用得稳,这三个维度决定了AI大规模应用的天花板,也成为衡量AI产业真正实力的硬指标。

能否“用得上”高效的算力是首要问题。

随着AI大模型参数量的不断增长,超大规模智算集群是未来趋势。阿里云、腾讯云、百度智能云等科技巨头都在大力推进万卡以上智算集群建设。

500

图源:百度智能云

然而,中国在算力芯片方面相比美国仍然有较大差距。美国《福布斯》杂志网站在近期发布了一份美国TRG数据中心托管公司的报告,报告指出中国以拥有230个人工智能集群引领世界,但是若以等效英伟达H100芯片数量计算,中国的AI算力约为40万块,而美国高达3970万块。

正因如此,在芯片自主方面,寒武纪、海光信息加速国产替代,赢得了市场的前瞻性高定价。随着中国在AI算力领域奋起直追,中国AI芯片厂商迎来的是千亿级的市场空间。

够用的前提下,是否“用得起”也是所有AI玩家要考虑的经济账。

计算算力成本除了芯片,还要考虑电费等更多因素。国际能源署(IEA)预测,到2026年,AI产业的耗电量将达到2023年的10倍以上。

庞大电费账单下,找到相对低廉的能源成本成为发展AI的重要条件。因此,中国的“东数西算”工程尝试将算力需求引向可再生能源丰富的西部,但物理距离带来的传输损耗和延迟仍待解决。

于是,降低每一度算力背后的能耗成本成为关键。智能电网调度、风光直供等板块,更高效率、更低成本的下一代数据中心能源方案,也是未来算力基建投资的重要方向。

此外,即便算力可得且成本可控,能否“用得稳”则决定了AI能否真正融入核心生产流程。

一次训练任务的意外中断,损失可能以百万美元计。网络稳定性、数据安全、软硬件协同等每个环节都必须可靠。

英伟达正是凭借CUDA构建的成熟软件生态,形成了难以撼动的迁移壁垒。中国厂商正在加速追赶,通过开放合作补齐短板。比如,大模型公司阶跃星辰联合多家芯片及基础设施企业发起“模芯生态创新联盟”,无问芯穹与华为昇腾的生态协作,构建可替代的基础软件生态。

500

图源:阶跃星辰

总之,中国企业正在通过超节点架构、液冷技术、智算网络等关键环节的突破,构建一个既自主可控又高效经济的算力基础设施体系。而科技公司们坚定投入AI算力,也将为多个核心板块创造巨大增长机遇。

AI黄金十年,聚焦中国算力的“三峡工程”

面向未来,OpenAI的Sam Altman提出了“智能即电力”的判断,他描绘是一个关于产业竞争力的新叙事。算力将如同今天的电力和石油,成为驱动经济增长的核心生产要素。

这也预示着,算力的发展本质是建设一座AI产业的“三峡工程”。而正如三峡工程不仅是一座水电站,中国在AI算力上走出技术自主、成本可控和生态繁荣的道路,必然会掀起一场牵扯甚广的大规模创新浪潮。

具体来看,首先,国产算力链的自主突破是这个工程的基石。

国产AI芯片正经历从“可用”到“好用”的关键阶段,寒武纪的思元590在部分推理场景已可对标英伟达A100,海光信息的深算二号DCU通过兼容CUDA生态降低了开发者迁移成本。

但芯片设计只是第一环,制造和封装等环节同样关键。近期有报道称中芯国际正在测试中国首款国产DUV光刻机,引发市场关注;长电科技与通富微电在Chiplet与2.5D/3D封装上的突破,也为国产芯片性能提升提供了第二条路径。

这意味着,投资国产算力不能只看设计公司,更需要关注整个制造和封测产业链的协同进步。未来在相关环节中拥有硬核实力的技术突破者,有望承接下一轮价值重估机遇。

其次,云厂商的整合能力是连接技术与市场的桥梁。

中国云巨头们正在加速市场整合,提供更具规模效应和成本优势的智能算力。国际调研机构Omdia的数据显示,生成式AI带动中国AI云市场在2025年上半年达到223亿元,同比增长超过一倍。而阿里云、火山引擎、华为云、腾讯云以及百度云等前五名在中国AI云市场已经占据了75%的市场份额。

巨大份额优势下,云巨头有望为国内供应链企业提供的宝贵的规模化应用场景,“以用带研”驱动芯片迭代升级,加速国产算力生态的成熟。五大巨头生态中那些核心供应商,是未来有望成为增长黑马的选手。

最后,上下游各环节的创新协同,将成为中国算力的“放大器”。

当数据中心规模扩展到十万卡乃至百万卡时,除了考验高端芯片供应,也考验高速互联、先进冷却与系统架构的整体能力。

就以先进冷却技术为例,随着AI服务器功率密度的大幅提升,传统风冷技术接近散热极限,可能引发芯片降频甚至宕机风险,而液冷技术是降低高密度算力能耗成本的“关键钥匙”。

因此,科技巨头和芯片厂商积极推动液冷技术普及,比如阿里云宁夏数据中心采用浸没冷却,将散热效率提升3倍。在此基础上,科创新源、高澜股份、龙蟠科技等中国液冷企业,有望在这一轮全球AI基建热潮中迎来增长机遇。

500

图源:阿里云

此外,在硬件层面,光模块和CPO(共封装光学)技术的创新同样备受关注。中际旭创、新易盛在全球光模块市场已占据领先份额,而通富微电则布局CPO等先进封装领域。

总之,纵观全产业链,算力基础设施板块一定会诞生新的增长黑马,但投资者需要沉下心来甄别那些能穿越周期、持续为AI时代提供底层动力的“卖水人”。

技术实力、生态位势与商业落地完美结合的企业,才是在这场波澜壮阔的产业浪潮中,最稳固的价值锚点。

来源:港股研究社

站务

全部专栏