AI芯片初创公司,进入“斩杀线”

500

2026年Q1的一则数据,给AI芯片赛道泼了一盆冷水。

全球共有135家企业投身人工智能处理器研发,其中36家是手握技术、资金与生态优势的上市公司巨头。英伟达、AMD、谷歌、亚马逊AWS、高通、特斯拉、Meta、微软、博通、美满电子等名字,几乎覆盖了从算力底层到终端应用的全产业链布局。

剩下的99家,是撑起赛道创新活力的初创公司。它们大多瞄准细分场景,专攻专用人工智能加速器,Tenstorrent、Cerebras、SambaNova、Groq、Esperanto 等玩家,曾凭借差异化技术路线收获不少关注。

但赛道的淘汰赛已然拉开序幕。JPR给出的预测直指残酷现实:到2030年,全球专业AI芯片开发商将锐减至约25家。

从99到25,这场行业大筛选,正在倒逼每一家初创公司重新思考生存逻辑。

01

AI芯片初创公司,面临四重掣肘

第一重掣肘,是资本更聚焦于头部AI芯片初创企业。

2023-2024 年的 AI 大模型热潮,引爆了全球算力需求。数据显示,2024年全球AI领域融资总额达5995.2亿元,较2023年增长超3000亿元,实现翻倍式增长。

资本的逻辑是“算力稀缺”,只要能做出芯片,就有望填补市场缺口,因此AI芯片初创公司估值水涨船高。但进入2026年,资本逻辑已彻底逆转,如果说以前的境遇是“算力不足”,那么当下便陷入“炫技到应用”的尴尬。

本文汇总了十二家极具竞争力的AI芯片初创公司:

500

其中,Cerebras以晶圆级芯片闻名,这是一种将整个晶圆制成单个芯片的技术,从而实现前所未有的计算密度和性能。与英伟达的GPU相比,Cerebras Systems声称,他们的芯片在某些AI工作负载上能够提供高达20倍的性能提升。 尤其是在AI推理方面,CS-3 具有显著优势。

Matrix专注于研发基于数字存算一体技术的AI推理芯片,并于去年开发出一种全新的3D动态随机存取内存技术实现方案,承诺将推理工作负载的性能提升"数个数量级"。

Groq 推出了名为LPU的推理芯片,专注于AI模型的推理环节,即让已经训练好的大模型在真实应用中高效运行。Groq称其LPU在速度、低延迟和成本控制上优于通用GPU,能够为大规模AI部署提供更具性价比的算力。去年12月,英伟达与Groq已达成非独家许可协议,将把Groq的AI推理技术整合进未来产品中。

上述公司几乎都被誉为英伟达的有力挑战者,但是受制于英伟达GPU和CUDA生态的主导地位,他们在争取商业客户方面面临着艰巨的挑战。这一困境也直接传导至融资领域,让曾经狂热的资本变得愈发理性。

对于多数中小AI芯片初创企业而言,重资产、低盈利的特点,只会更难以寻求到新的资金来源。

第二重掣肘,是云厂商自研,从客户变对手。

谷歌、亚马逊、微软、Meta 四大云巨头,过去是英伟达最大的客户,也是初创公司最渴望的“金主”。但现在,它们集体转向自研 ASIC 芯片,不仅减少采购外部芯片,反而成为最强竞争者。

去年10月,亚马逊宣布世界上最大的AI 计算集群之一 Project Rainier 现已投入使用。这一超级集群配备近 50 万颗 Trainium2 芯片,分布于美国境内多个数据中心。亚马逊 AWS 合作伙伴 Anthropic 已经开始在该集群上运行工作负载,这一AI 基础设施提供的计算能力是 Anthropic 之前训练其 AI 模型所用的 5 倍以上。而到 2025 年底,Anthropic 将在超过100 万颗 Trainium2 芯片上运行 Claude 模型的训练、推理等工作负载。

随后在2025年12月,亚马逊发布Trainium 3,其搭载新一代Neuron Fabric互联技术,单台Trn3 UltraServer可集成144张芯片,总算力达362 FP8 PFLOPs。通过EC2 UltraClusters 3.0架构,芯片集群规模较上一代提升10倍,最高可扩展至100万张芯片,已为Anthropic的“Project Rainier”项目提供算力支持。Karakuri、Metagenomi等客户实测显示,该芯片可降低AI模型训练与推理成本达50%。

这也意味着最起码超100 万颗的AI芯片,亚马逊都可以自给自足。

今年1月,微软宣布推出Maia 200。微软声称,新产品的4位浮点(FP4)性能比Trainium 3高出3倍,8位浮点(FP8)性能超过谷歌第七代TPU。

谷歌则宣布将2026年TPU芯片出货量目标大幅上调50%至600万颗。4月初,Anthropic与谷歌、博通签下最新协议,根据协议,Anthropic将从2027年起获得基于谷歌TPU处理器、由博通提供的约3.5吉瓦AI算力支持。此次合作延续了双方的战略布局:2025年10月,Anthropic已宣布与谷歌扩大合作,计划部署多达100万枚TPU(算力超1GW)支持Claude模型需求。TPU作为谷歌自研AI芯片,除自用外,大模型厂商(如Meta)也积极采用,凸显其在高性能推理与训练场景的竞争力。

这一合作也代表了AI算力市场的结构性演变:在英伟达GPU主导的“第一供应链”之外,由谷歌TPU和博通制造能力结合的“第二供应链”正在形成。

第三重掣肘,是传统AI芯片龙头的全方位碾压。

英伟达、AMD、英特尔凭借深厚的技术积累和生态壁垒,对初创公司形成降维打击。

英伟达在AI芯片市场的市占率达九成,已构建了无法撼动的CUDA生态护城河。并不止于此,正如上文所言,英伟达还与Groq达成非独家许可协议,将把Groq的AI推理技术整合进未来产品中。在今年3月的GTC大会上,英伟达还发布Blackwell Ultra GPU,推理算力提升100倍。可以说不论是生态、还是算力、亦或是差异化路线,英伟达皆有布局。

AMD凭借 MI300 系列在性价比上突破,拿下了更多的市场份额,英特尔联手SambaNova专注于 AI 推理和训练芯片及相关软件的研发。

第四重掣肘,生态的壁垒是初创公司难以逾越的鸿沟。

AI 芯片不是孤立的硬件,而是“芯片+工具链+框架+模型优化”的完整生态。英伟达 CUDA 拥有数百万开发者,支持几乎所有 AI 框架和模型;AMD 凭借 ROCm 不断追赶;云厂商自研芯片与自家云服务深度绑定。而九成的初创公司只有芯片,没有完整生态,客户要适配新芯片,需投入大量人力重构代码、优化模型,迁移成本极高,这直接让多数客户望而却步。

02

AI芯片的未来,留下哪一条路线?

自2025年起,AI芯片需求发生关键转向:2025年前行业重心偏向训练端,核心是海量算力支撑大模型爆发式迭代;如今AI产业正转向重推理端,因为大模型研发已趋于平稳,商业化落地便成为核心,随着高效、低成本、低延迟成为算力核心诉求,这也重塑了国外AI芯片初创企业的生存逻辑。

当前主流的AI芯片路线主要包括GPU和ASIC等。

GPU路线的代表企业包含英伟达、AMD等。GPU凭借并行计算能力强、通用性高的优势,成为AI训练与推理的主流选择,尤其是通用GPU(GPGPU),能够适配绝大多数AI模型与场景,无需针对特定场景进行定制化开发,这也是其能够快速普及的核心原因。但正是这种“通用性”,让GPU路线成为初创公司最难突破的赛道。这也正对应上文的“第三重掣肘”,留给初创公司的市场空间本就有限。

当前,初创公司布局GPU路线主要分为两大方向:一是高端通用GPU的“性价比”,二是细分场景专用GPU,实现精准卡位。前者方面,比如国产芯片公司壁仞科技、沐曦科技便已推出研发性能接近英伟达H100、H20等,且更具成本优势的产品,同时凭借本土供应链优势,已实现规模出货。后者方面,部分公司打造“场景专用”的GPU产品,避开与巨头的正面竞争。比如聚焦自动驾驶场景的初创公司,针对车载环境的低功耗、高可靠性需求,优化GPU的功耗控制与实时性,打造车载专用AI GPU;聚焦边缘计算场景的初创公司,则精简GPU架构,降低功耗与体积,适配边缘设备的部署需求。

再看ASIC路线,根据Marvell预测,2023-2028年全球AI ASIC市场规模将从66亿美元跃升至554亿美元,年复合增长率达53%。

该路线是AI芯片初创公司突围的核心路径,也可分为三大方向:第一类是提供极致性能的ASIC产品,比如上文提到的国际AI芯片公司Cerebras、Groq,它们放弃通用路线,针对超大规模AI训练、低延迟推理等极端场景,定制开发ASIC芯片。第二类和GPU场景类似,是提供细分场景专用的ASIC产品。比如上文提到的Matrix,针对AI推理的存储瓶颈,开发全新的3D DRAM技术。第三类是通过与头部客户绑定,直接为其定制芯片。比如SambaNova便选择与英特尔合作,为英特尔x86生态定制专用AI ASIC加速卡,打造“CPU+ASIC”的协同方案。

在 AI 芯片初创公司中,选择 ASIC 路线的企业占比超六成,但不同细分方向的发展逻辑截然不同。比如上述三类公司中:

第一类AI ASIC芯片公司能够解决巨头芯片无法覆盖的极端场景需求,但是这类公司如若无法成为细分领域绝对龙头,则可能面临被巨头收购或投资的情况,从而成为其技术补充。

第二类AI ASIC芯片公司核心逻辑是“场景深耕+技术优化”,无需追求极致的通用性能,只需精准匹配行业需求,就能在细分场景中获得生存空间,同时由于场景聚焦,生态建设成本低,客户迁移成本也相对较低,更容易实现规模化盈利。

第三类AI ASIC芯片公司的核心优势在于“生态绑定”,无需独自面对市场竞争,借助巨头的资源实现生存与发展,同时通过定制化开发,避免与巨头正面竞争,成为巨头生态的“补集”,这也是最稳妥的ASIC突围路线之一。

未来,AI芯片市场或将朝着“异构融合”方向发展,GPU与ASIC并非相互替代,而是通过合理搭配实现算力效率最大化。回到“99进25”的淘汰赛,无论是选择GPU路线,还是ASIC路线,核心都在于精准定位——立足自身资源与能力,避开巨头核心优势,要么在GPU路线的细分场景或性价比领域寻找缺口,要么在ASIC路线的场景定制或生态绑定中构建壁垒。

那么,将目光落在国产AI芯片公司,这些公司在过去一年过的如何?

03

国产AI芯片公司,黄金窗口期

国产AI芯片的光景,似乎过的还不错。随着AI 应用全面渗透,高性能计算芯片需求激增,国产AI芯片迎来发展黄金窗口期。

其中海光信息2025年营收约143.77亿元,较上年同期增长56.92%;归母净利润25.45亿元,同比增长31.79%。

寒武纪实现营收64.97亿元,达到453.21%,归母净利润20.59亿元,同比增长555.24%,终于实现扭亏为盈。云端产品线是寒武纪的绝对收入支柱,2025年实现收入约64.76亿元,同比增长455.34%,占总营收的比重超过99%;边缘产品线实现收入约339.39万元;IP授权及软件业务实现收入约228.87万元。

沐曦股份2025年实现营收16.44亿元,同比大幅增长121.26%;实现归母净利润-7.89亿元,较上年同期-14.09亿元收窄43.97%,这是该自公司成立以来首次实现亏损幅度收窄。财报表示,2025年收入增长主要因为随着产品及服务获得下游客户的广泛认可与持续采购,GPU产品出货量显著增长。其中,沐曦股份的训推一体GPU板卡(曦云C系列为主)销量达33649片,同比增长147.31%,而智算推理GPU板卡销售量则为4946片,同比增长达到866.02%。

壁仞科技2025年营收为10.35亿元,较上年同期的3.37亿元增长207.2%,毛利为5.57亿元,较上年同期的1.79亿元增长211%;毛利率为53.8%。

摩尔线程2025年营收为15.06亿元,较2024年同期增长243.37%。归属于母公司所有者的净利润为-10.24亿元,与上年同期相比,亏损收窄幅度为36.70%。

天数智芯实现总营收 10.34 亿元,同比大增 91.6%;毛利 5.58 亿元,同比飙升 110.5%。2025年,其通用GPU产品产生的收入达到9.23亿元,同比增长149.6%,占同年总收入的89.3%。其中,专为满足AI模型训练需求而设计的天垓系列,收入为5.84亿元,同比增长116.7%,而专为云端及边缘推理应用而设计的智铠系列,收入为3.39亿元,同比增长238.2%,收入贡献占比也由2024年的18.6%增长至32.8%。

随着国产算力需求的提升,以及各家技术研发的逐步深入,当前,国产芯片厂商正在不断分食英伟达的在华市场。根据IDC 最新报告,国产 GPU 与 AI 芯片厂商的市场份额首次攀升至 41%,而英伟达在中国市场的占比从过去近乎垄断的 95% 急速滑落至 55%。

IDC的数据显示,2025 年中国 AI 加速卡总出货量约400 万张。英伟达仍以约220 万张、55% 份额位居第一,但相较此前近乎 95% 的绝对霸主地位,这一变化堪称断崖式的下跌。

IDC 分析指出,中国本土AI芯片市场迎来重大格局转变的原因主要在于:美国出口管制切断中国获取英伟达高端芯片渠道,而同时中国国内对供应链自主化的迫切需求,共同推动本土国产芯片快速上量,特别是2025年中国 AI 新基建与智算中心集中落地,采购倾向国产化,成为本土芯片增长的核心动力。

站务

全部专栏