兆易创新:AI服务器增长迅速,单机Flash价值约100美元
本文由半导体产业纵横(ID:ICVIEWS)综合
AI服务器正以15%~20%的复合年增长率增长,单机Flash价值约100美元。
今日,2025慕尼黑上海电子展在上海盛大开幕。
会上,兆易创新科技集团股份有限公司市场经理田玥发表主题演讲,围绕 AI 服务器对 Flash 的需求展开论述。
去年,AIPC火爆登场,被业界公认为 AIPC 元年。在这一热潮下,行业普遍预计今年 AIPC 的渗透率将向 50% 的目标迈进。AIPC 的兴起,让个人计算设备拥有了更强大的智能处理能力,为用户带来全新的交互体验和工作生活助力。
AI 服务器作为 AI 运算的核心硬件,正成为行业瞩目的焦点。近期,美国在政策上把服务器列为单独门类,并实施关税豁免,足见其重要性。这也是今天探讨的核心部分。
服务器市场规模
Gartner报告显示,得益于AIGC技术的快速迭代,2024年全球都在加大对AI算力基础设施的投资,全球服务器市场规模将达到2164.0亿美元,预计2023年-2028年市场将以18.8%的年复合增长率保持高速增长,2028年市场规模将达3328.7亿美元,其中AI服务器将占据近7成市场份额。 这一增长趋势表明,在AI应用需求的驱动下,服务器市场正进入一个长周期的快速增长阶段。
2024年全球服务器整机出货量约1365.4万台,年增约2.05%。同时,市场仍聚焦部署AI服务器,AI服务器出货占比约12.1%。
从客户类型来看,2024年超大规模云服务提供商和企业客户都在加大AI服务器的资源投资,是服务器市场增长的主力。
在此过程中,AI 比重不断上升,2030年AI服务器出货量将达450万台,通用服务器维持不变为1200万台。2030年AI服务器市场规模约4.5亿美金,通用1.5亿美金,累计6亿美金。
基于此,对未来 5 年服务器市场的需求趋势分析,得出四个结论:
通用服务器需求平稳;AI服务器将呈现约20倍的价格差,这将导致通用服务器预算大幅减少;AI服务器将支撑大模型落地需求;AI服务器正以15%~20%的复合年增长率增长,单机Flash价值约100美元。
聚焦到SPI,田玥表示,全球SPI NOR Flash市场规模约250~300百万美元。
关于 AI 服务器中的 SPI NOR Flash 需求,由于 AI 服务器面向云端需求,(云端的数据处理任务量大且复杂,需要高效的计算单元来快速响应),因此 GPU 模组效率更高(相较于其他计算组件,GPU 模组在并行计算等方面的特性,使其能更好地满足云端需求)。而这种高效的运算过程会产生大量数据的读写操作,进而对 SPI NOR Flash 提出了(如高读写速度、大容量存储等)特定需求。
关于智能网卡中的 SPI NOR Flash 需求,针对用于云端的服务器,智能网卡(DPU)已越来越成为标配。云端处理和 GPU 加速对于 DPU 有着不同的需求,(例如云端处理侧重数据的快速转发和存储,GPU 加速则更关注对图形、复杂算法等的加速运算,这导致对 DPU 的存储和数据处理能力要求不同)。此时 Flash 搭配容量为 256Mb~2Gb,8Mb~32Mb(是因为不同的任务需求,决定了 DPU 需要不同容量范围的 Flash 来缓存和存储临时数据,以保障数据处理的高效性和稳定性)。
AI服务器需要哪些性能的SPI NOR Flash?
Flash 作为标准件产品,在 AI 服务器中有诸多要求。
在电压、容量、封装、温度方面,标准电压有3伏和 1.8 伏,目前 1.8 伏比例逐渐升高。在服务器领域,生态正从3伏向 1.8 伏转变,甚至在一些更先进的穿戴类产品中,已出现 1.2 伏的情况。在 AI 背景下,无论是 CPU 还是 GPU 搭配,对容量提升的需求都极为明显。小型化封装趋势在 SSD 上体现尤为显著。由于大模型对存储容量需求增加,而 SSD 卡空间尺寸固定,小型封装板应运而生,以满足这一应用需求。公司的工规和车规产品可达到 125 度,在服务器市场中,主要是工规 125 度产品用于搭配算力要求高、功耗大、温度高且局部环境小的 GPU,以满足高温存储需求。
如 RPMA 标准,原本多用于 PC,现也在服务器场景中出现。同时,在一些销往不同国家和地区的产品中,由于加密需求,产生了对高阶 RPMA 和 Password 功能的要求。此外,由于服务器信号复杂,易产生干扰和衰减,对 Flash 产品的驱动能力提出了更高要求,同时还需遵循英特尔的 SFDP 标准。
在服务器中,除了 SPI 的应用,还有少量 SOC 小容量的 NOR Flash 机会,主要体现在 BMC 芯片和 GPU 卡中。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。