AI内存新秀,SOCAMM2登场

据报道,英伟达已取消其第一代SOCAMM内存模块的推广,并将开发重点转向名为SOCAMM2的新版本。
不久前,英伟达曾表示计划今年为其AI产品部署60-80万个SOCAMM内存模块,但据称随后发现了技术问题,项目两次搁置,并未能下达任何实际的大规模订单。目前开发重点已经转移到SOCAMM 2,英伟达已开始与三星电子、SK海力士和美光合作对SOCAMM 2进行样品测试。
01
SOCAMM2是什么?有何优势?
SOCAMM技术定位为面向AI服务器的新型高带宽、低功耗内存解决方案,其设计目标是在提供与HBM(高带宽内存)相近性能的同时,有效降低成本。通过将LPDRAM与压缩连接内存模块 (CAMM)搭配使用,以革命性的全新外形尺寸提供卓越的性能和能效,相比传统的DDR5 RDIMM配置更节省空间,且功耗低三分之一。
此前,英伟达在产品文档中已明确列入SOCAMM相关信息,其中GB300 NVL72规格表显示,该产品可支持最高18TB基于LPDDR5X的SOCAMM,带宽可达14.3TB/s。但由于英伟达GB300 "Blackwell Ultra"的主板设计变动,SOCAMM模组不会立即进入商业化,但该技术仍有望成为Vera Rubin平台的一部分,为Vera CPU提供更灵活、更易维护的非板载内存选择。

需要指出的是,SOCAMM与HBM二者并非直接竞争关系,而是互补存在,SOCAMM解决灵活性问题,而HBM通过与GPU的先进封装集成解决极致性能需求。
SOCAMM 2或将支持LPDDR6内存规格
从技术层面深入剖析,SOCAMM 2 在硬件架构上延续了 SOCAMM 1 的 694 个输入 / 输出(I/O)端口设计,这一稳定的底层架构为其性能升级奠定了基础。值得关注的是,SOCAMM 2 的数据传输速度大幅跃升至 9,600MT/s,相较于 SOCAMM 1 的 8,533MT/s,实现了约 12.5% 的显著提升。这一速率提升意味着在相同时间内,SOCAMM 2 能够传输更多的数据,为 AI 服务器的高速运算提供了更强大的数据吞吐能力。
更具前瞻性的是,SOCAMM 2 极有可能支持下一代低功耗内存 LPDDR6。作为 LPDDR5X 的继任者,LPDDR6 在诸多关键性能指标上实现了质的飞跃。在通道架构上,LPDDR6 摒弃了 LPDDR5 的 16 位单通道设计,创新性地采用 24 位宽通道(两个 12 位子通道)架构,每个子通道配备独立的 4-bit CA 总线,并行处理能力大幅提升。其突发长度设定为 24(BL24),形成 288 位数据包,其中 256 位承载有效数据,另外 32 位则被赋予特殊功能,用于错误检查、内存标记或实施数据总线反转(DBI)技术,在保障数据准确性的同时,显著降低了写入操作时的功耗。
从性能表现来看,LPDDR6 的内存带宽高达 38.4GB / 秒,相比 LPDDR5 有了极大提升,且 JEDEC 确认其功耗将比 LPDDR5 降低约 20%。在轻负载场景下,LPDDR6 引入的效率模式(Efficiency Mode)运行机制可仅启用一条子通道访问全部 16 个存储区,另一条子通道进入待机或深度睡眠状态,灵活的资源配置进一步优化了能耗。同时,LPDDR6 新增的 ALERT 信号线使 DRAM 颗粒能主动向处理器报告错误,支持 15 种不同类型故障的实时上报,极大增强了数据完整性保障能力。
若SOCAMM 2 成功集成 LPDDR6 技术,二者将形成强大的协同效应。一方面,LPDDR6 的高性能特性将助力 SOCAMM 2 在带宽、能效比以及数据处理的稳定性上实现再次突破,进一步拉开与传统内存方案的差距,更好地满足 AI 服务器对海量数据高速、稳定处理的严苛需求;另一方面,SOCAMM 2 的模块化设计也将为 LPDDR6 的应用拓展新的空间,使其能够更便捷地应用于 AI 服务器领域,加速 LPDDR6 的商业化进程。不过,目前 LPDDR6 仍处于技术验证阶段,其与现有平台的兼容性、量产成本以及大规模应用后的稳定性等方面均存在一定不确定性,这也是相关供应商尚未正式确认该功能的重要原因。
02
AI 服务器生态怎么融
SOCAMM2 并非孤立存在的内存产品,其价值的充分发挥离不开与 AI 服务器生态的深度协同适配。从硬件层面来看,AI 服务器的主板设计、CPU 与内存控制器的兼容性,以及散热系统的布局,都需与 SOCAMM2 的特性相匹配。以英伟达 Vera Rubin 平台为例,该平台作为面向下一代 AI 计算的核心架构,对内存的灵活性和可维护性提出了更高要求。
SOCAMM2 的非板载内存设计,恰好满足了 Vera Rubin 平台对内存模块独立升级、更换的需求,无需整体更换主板,大幅降低了服务器的维护成本与升级周期。
在软件层面,操作系统、AI 框架以及驱动程序的优化,同样是 SOCAMM2 发挥性能的关键。例如,在 AI 训练场景中,TensorFlow、PyTorch 等主流框架需要针对 SOCAMM2 的内存带宽特性进行算法调整,以实现数据的高效调度与缓存管理,避免因内存性能未充分利用而导致的计算资源浪费。同时,内存管理驱动程序需支持 SOCAMM2 的多通道并行传输模式,确保在多任务并发处理时,内存资源能够被合理分配,减少数据延迟与冲突。
此外,SOCAMM2 与 AI 加速芯片的协同也尤为重要。当前,英伟达 GB300 系列芯片、AMD MI300 系列芯片等主流 AI 加速芯片,在设计之初便需考虑与新型内存的适配性。以英伟达 GB300 NVL72 为例,其规格表明确支持最高 18TB 基于 LPDDR5X 的 SOCAMM,带宽可达 14.3TB/s,这一参数设定正是芯片厂商与内存厂商提前协同研发的结果。通过芯片与内存的深度适配,能够实现数据传输链路的优化,减少信号干扰与传输损耗,进一步提升 AI 服务器的整体运算效率。
03
内存大厂,竞争升温
随着AI应用的爆发,高带宽、低延迟的内存需求急剧增长,传统DDR内存难以满足AI服务器对海量数据快速读写的要求。HBM虽性能卓越,但因成本高昂、产能受限,无法全面普及。SOCAMM2的出现恰逢其时,其融合LPDDR技术的优势,有望以更亲民的成本提供接近HBM的性能,填补市场空白。
在这一背景下,不少内存大厂纷纷押注SOCAMM2赛道。
美光凭借技术积累与市场响应速度,在SOCAMM 领域率先行动,今年 3 月宣布向客户交付基于 LPDDR5X 的 SOCAMM 模块,成为行业内较早实现该类产品交付的厂商。此举使其积累了市场应用经验,与部分AI 服务器制造商建立合作关系,为后续 SOCAMM2 的推广奠定基础,但先发优势能否持续需看后续产品迭代与成本控制能力。
三星与SK 海力士作为内存行业头部企业,虽在 SOCAMM 产品推出进度上稍晚于美光,但凭借技术储备与产业链整合能力,在 SOCAMM2 研发与量产准备中持续发力。
三星展示的SOCAMM2 设计方案侧重产品紧凑性与散热管理优化,通过封装技术改进与散热材料应用,提升产品在高密度服务器环境下的稳定性与可靠性,以适应长时间高负载运行需求;SK 海力士则将研发重点放在内存速率提升与稳定性优化上,通过改进内存颗粒制造工艺、优化电路设计,提升 SOCAMM2 在数据传输速率、延迟控制及多模块协同工作的稳定性。目前,两家企业均与英伟达保持技术合作,参与 SOCAMM2 样品测试,并根据测试反馈优化产品设计,计划在明年初推进量产。
国产存储厂商也积极参与SOCAMM2 的市场竞争,江波龙作为国内存储行业代表企业,基于自身在存储芯片设计、主控芯片开发、封装测试及生产制造等环节的技术积累,推出自研 SOCAMM2 产品。该产品在保留SOCAMM 技术通用优势的基础上,针对国内服务器市场特点进行优化,例如去除 LPCAMM2 顶部凸出的梯形结构以降低整体高度,提升与国内常见服务器安装环境及液体冷却系统的适配性。这种本土化优化策略或为其争取国内 AI 服务器制造商的合作机会,助力拓展企业级存储市场份额,同时推动国产存储技术在 AI 内存领域的突破。随着国内 AI 产业发展及对自主可控存储产品需求的增长,国产厂商或凭借本土市场优势缩小与国际大厂的技术差距。
04
商业化,还有多远?
SOCAMM2 在商业化推进过程中,面临技术、成本、生态等多方面挑战,同时也具备一定的市场发展机遇,其发展走向将对 AI 内存行业格局产生影响。
技术兼容性是SOCAMM2 商业化的首要挑战。作为新型内存模块,SOCAMM2 需与现有 AI 服务器的硬件架构、操作系统及 AI 应用框架实现兼容。目前,部分老旧服务器的内存控制器可能无法支持 SOCAMM2 的高传输速率与特殊指令集,企业若要适配 SOCAMM2 需进行硬件升级或更换,这将增加初期投入成本,可能导致对成本敏感的中小企业暂缓采用;同时,操作系统与 AI 框架的适配优化需投入时间与资源,若软件适配进度滞后于硬件产品上市,将导致 SOCAMM2 性能无法充分释放,影响市场接受度。
成本控制对SOCAMM2 的商业化推广也至关重要。尽管SOCAMM2 定位为 “低成本替代 HBM” 的方案,但与传统 DDR5 内存相比,其采用的 LPDDR5X/LPDDR6 颗粒及模块化设计,在研发与制造成本上仍有差距。尤其是LPDDR6 颗粒处于技术验证阶段,量产初期成本较高,将直接影响 SOCAMM2 的定价策略:若定价过高,将失去与DDR5 内存的成本竞争优势;若定价过低,可能压缩内存厂商利润空间,影响研发投入积极性。此外,SOCAMM2 的生产良率也将影响单位产品成本,良率偏低将进一步推高成本,制约大规模商业化。
从市场机遇来看,AI 产业的持续扩张将带动高带宽内存需求增长。
根据TrendForce 的最新研究,2025 年由于需求持续旺盛且产品平均售价较高,预计AI 服务器细分市场的价值将升至 2980 亿美元,AI 服务器将占整个服务器行业总价值的 70% 以上。内存作为核心组件,需求将同步提升。SOCAMM2 具备 “高带宽、低功耗、低成本” 特性,与中高端 AI 服务器需求相契合,在 AI 训练、推理、云计算等场景中存在应用空间。
此外,SOCAMM2 的发展或推动内存行业技术迭代。面对 SOCAMM2 带来的竞争压力,HBM、DDR5 等内存产品或将加快技术升级,进一步提升性能、降低成本,形成行业良性竞争格局。这种竞争态势可能促使内存行业突破技术瓶颈,为 AI 产业提供更优质的内存解决方案,推动 AI 计算性能整体提升。