性能“阉割”的英伟达H20为何会大卖?
国产顶级AI芯片始终供应紧张 生态桎梏亟需打破
作者/ IT时报记者 贾天荣
编辑/ 钱立富 孙妍
据芯片行业咨询公司SemiAnalysis最新预测,英伟达公司为中国市场“特供”的H20芯片,有望在当前财年大幅提振该公司中国区业绩。
该机构预测,英伟达今年有望交付超过100万个新的H20芯片。按照单个芯片1.2万美元—1.3万美元计算,仅这一款芯片就将贡献超过120亿美元的营收(约合870亿人民币)。
值得一提的是,在上一年度财报中,英伟达中国区营收为103亿美元。这就意味着,如果SemiAnalysis预测成真,仅是H20显卡销售额就将超过上一财年英伟达中国区整体营收。
今年初,国内企业对性能大幅缩水的H20持观望态度。如今,凭借英伟达的生态优势,加之华为昇腾910B始终供货紧张,即使性能“阉割”,H20也逐渐热了起来。
H20接受度逐渐提升
今年2月,H20在中国市场接受预订之初,渠道商给企业客户的报价在1.5万美元(约合人民币11万元),一台搭载八张H20计算卡的服务器售价约为150万元。
如今,一位经销商告诉《IT时报》记者,目前一台配置八张H20的服务器价格在120万元左右。
业内人士告诉记者,包括百度、阿里、腾讯和字节在内的互联网大厂是H20主要需求方。“因为能合规进口,他们除了H20没有别的选择了。”这位人士说道。
尽管H20在性能上不及英伟达 H100,其AI算力不到后者的15%,但由于国产芯片中最接近英伟达顶级芯片的华为昇腾910B始终供应紧张,H20成为企业们的无奈之选。
今年1月《IT时报》曾报道,已有国内厂商将在今年第一季度拿到H20,但由于这些“特供版”AI芯片性能大幅缩水,大部分中国企业还处于观望状态。半年时间过去,H20芯片在国内的接受度逐渐提升。
《IT时报》记者注意到,7月9日,万马科技在投资者关系活动上表示,目前公司用英伟达H20搭建算力集群,建设无人驾驶云服务项目。这家企业进一步表示,未来如果能解决合规问题,将考虑使用英伟达A/H100,同时也在和国内供应商合作进行测试,若满足客户需求,未来不排除考虑使用国产AI芯片。
而在6月24日发布的公告中,万马科技称全资子公司优咔科技将在江苏常州建设自动驾驶云服务建设项目,将规划建设服务器1个SU,共计31台NVIDIA H20 服务器。
7月10日,有投资者在互动平台向弘信电子提问:“英伟达H20下半年中国区爆单,作为一级代理商,公司最近有下单H20芯片吗?”
对此,弘信电子回应称,公司全资子公司安联通作为英伟达中国区精英级合作伙伴,具有英伟达芯片获取的渠道优势,为客户提供H20算力业务是安联通的业务重点发展方向之一。
记者注意到,2023年4月以来,弘信电子战略性布局AI算力服务器硬件研发生产制造与AI算力租赁两大业务,当月弘信电子斥2.93亿元买下英伟达合作公司北京安联通科技有限公司股权。
生态成为国产芯片桎梏
业内人士告诉《IT时报》记者,H20芯片之所以能够在国内市场站稳脚跟,很大程度上得益于其生态系统优势,这是包括AMD、英特尔以及国内竞争对手难以匹敌的。
虽然H20的性能不及顶级型号,但对于国内大企业而言,采用H20芯片相较于全盘国产化,对现有生态系统的冲击较小,因此成为更具吸引力的选择。
该业内人士进一步透露,去年腾讯采购了不少AMD芯片,但实际利用率并不高,甚至在今年初一度寻求“出手”。
生态目前仍是国产芯片厂商亟需突破的一大桎梏。在近日的中国信息化百人会上,中国工程院院士、清华大学计算机系教授郑纬民表示,国产AI芯片的核心问题在于生态系统不够完善。他认为,尽管国产AI芯片在硬件性能上取得了显著进展,但由于软件生态系统的不成熟,用户使用体验不佳。
图源:壹图网
什么是好生态?郑纬民认为,如果一个原本在英伟达平台上开发的人工智能软件能够轻松移植到国产系统上,这就意味着生态系统是良好的。
郑纬民指出,如果国产AI芯片生态系统得到改善,哪怕只能达到国外芯片60%的性能,用户也会愿意使用。
从基础大模型转向推理
“就大模型训练而言,H20基本属于不可用。”今年初,山海引擎COO彭璐在接受《IT时报》采访时表示,H20的配置更适用于推理,而不适用于模型训练。彭璐当时认为,从市场应用的角度看,除了一些大厂可能会投入成本用于推理训练外,大型模型创业公司很少大量购买推理算力,因为它们更注重模型训练的竞争力。
几个月来,彭璐观察到,国内算力市场经历了不少变化。他表示,当前国内专注于基础大模型的厂商数量正在减少,导致大规模算力需求减弱,反而小集群需求增多,“中型集群的需求基本上没了。”这也导致今年春节后H100等高端设备价格不断下调。
记者了解到,今年初,两家小型渠道商与英伟达展开合作,最初的目标是用H20建立“万卡集群”。然而,随着时间的推移,实际部署情况并没有达到最初预想的规模。知情人表示,目前这两家渠道商所建立的最大集群规模为128台服务器的千卡集群,“但千卡集群在现在的环境下租不出去。”
彭璐进一步表示,国内算力需求正从大规模模型训练转向推理需求,尤其是企业对于私有化部署的推理需求日益增长。随着开源模型能力的提升,企业发现通过微调这些模型即可满足特定任务需求,无须投入巨资训练超大规模模型。这种趋势促使推理市场开始升温,企业倾向于构建小模型来完成特定任务。
“但目前我们还没有看到像我们这种IDC公司有大量进H20的,主要还是几个大厂在买。”彭璐表示。
排版/ 季嘉颖
图片/ 英伟达 东方IC 壹图网
来源/《IT时报》公众号vittimes
E N D