公众号记得加星标⭐️,第一时间看推送不会错过。

来源:内容编译自wccftech。
英伟达将为其用于 AI 产品的模块化内存解决方案 (SOCAMM) 生产大量库存,从而更轻松地升级设备内存以获得卓越的性能和高效率。
NVIDIA在 GTC 2025大会上展出的全新 SOCAMM 内存,预计今年的库存将有所增加,因为 NVIDIA 致力于在其 AI 产品上实现卓越的性能和更低的功耗。在 GTC 大会上,我们看到 NVIDIA 的 GB300 平台采用了美光科技开发的 SOCAMM 内存,这与服务器和移动平台等 AI 产品上使用的 HBM 和 LPDDR5X 内存截然不同。
SOCAMM 内存基于 LPDDR DRAM,后者传统上用于移动设备和低功耗设备。但与 HBM 和 LPDDR5X 等解决方案不同,SOCAMM 可升级。它并非焊接在 PCB 上,而是通过三个螺丝固定。据韩国媒体ETNews最新报道,NVIDIA 今年计划生产约 60 万至 80 万块 SOCAMM 内存。此次新内存的增产将用于 NVIDIA 的 AI 产品堆栈。
首批搭载 SOCAMM 内存的产品之一是最新的 GB300 Blackwell 平台,这已经暗示了 NVIDIA 打算为其众多 AI 产品过渡到新的内存规格。虽然今年 80 万片的目标产量远低于 NVIDIA 内存合作伙伴在 2025 年向 NVIDIA 交付的 HBM 内存数量,但明年这一规模将开始扩大,尤其是在 SOCAMM 2 内存上市之后。
SOCAMM内存采用定制外形,不仅紧凑模块化,而且比RDIMM更节能。我们尚不清楚具体的节能改进幅度,但从报告中得知,SOCAMM将提供卓越的效率,同时带来比RDIMM以及LPDDR5X和LPCAMM更高的带宽,而LPDDR5X和LPCAMM是移动平台最受欢迎的内存解决方案之一。
SOCAMM 内存带宽约为 150-250 GB/s,并且可交换,为 AI PC 和 AI 服务器提供了多功能选择,并且可以轻松升级。在不久的将来,SOCAMM 有望成为低功耗 AI 设备的标配。目前,美光公司是 NVIDIA 的 SOCAMM 制造商,而三星和 SK 海力士据称也在与 NVIDIA 洽谈,希望为 NVIDIA 生产 SOCAMM 模块。
SOCAMM:DRAM 创新的下一个重大事件
随着人工智能在各个行业创造新的市场,它也推动了小外形压缩附加内存模块 (SOCAMM) 的增长,这种新兴技术通常被称为“下一代高带宽内存”。
虽然 SOCAMM 不能直接替代 HBM 内存,但凭借其可扩展性和更低功耗要求,它可能在重塑全球内存芯片格局方面发挥同样重要且有利可图的作用。
全球顶级图形处理器供应商英伟达提出了一种新的服务器模块化内存芯片标准,该标准可在降低功耗的同时最大限度地提高性能,并专门为其即将推出的人工智能处理器量身定制。
虽然 SOCAMM 的价格预计仅为 HBM(为 AI 处理 GPU 提供动力的昂贵内存芯片)的 25-33%,但领先的内存芯片制造商三星电子、SK 海力士和美光科技已加入竞争,以在新兴服务器模块市场中取得领先地位。
一位业内人士表示:“SOCAMM市场对芯片制造商而言,其竞争性和战略重要性将不亚于HBM市场。真正的竞争在于,一旦搭载SOCAMM的服务器上市,谁能率先通过Nvidia的资格测试,并成为新服务器模块的主要供应商。”
SOCAMM 是一款专为 AI 服务器优化的紧凑型高性能内存模块。与使用 DDR5 构建的传统服务器模块不同,SOCAMM 采用 LPDDR,这是一种通常用于移动设备的低功耗芯片。它垂直堆叠多个 LPDDR5X(高级型号),以提升数据处理性能,同时显著提高能效。
一位业内人士解释说:“虽然 DDR5 是服务器的标准,但功耗已成为大规模部署的一个主要问题。SOCAMM 的设计充分考虑了低功耗,而且随着移动 DRAM 性能的显著提升,它现在已可用于服务器。”
SOCAMM 拥有 694 个输入和输出引脚(微型接触点,使芯片能够发送和接收数据),数量远超传统的 DRAM 模块(262 个引脚),甚至 LPCAMM 的 644 个引脚。LPCAMM 是笔记本电脑的典型内存模块。更高的引脚数有助于减少数据瓶颈。
SOCAMM 的另一个吸引人之处在于其模块化设计,用户可以轻松拆卸和更换以进行更新。该芯片预计将与 HBM 芯片一起使用,以增强 Nvidia 即将推出的 AI 处理器的性能。
Nvidia 计划在其下一代 AI 加速器 GB300 中同时使用 HBM 和 SOCAMM 芯片,该加速器计划于今年晚些时候推出。SOCAMM 模块预计将安装在配备 Nvidia AI 加速器的服务器中。
据业内人士透露,这家 GPU 巨头还计划在其即将开发的名为 Project DIGITS 的个人 AI 超级计算机中使用 SOCAMM。该设备体积小巧,可轻松放置在桌面上,旨在让高性能 AI 计算更容易被大众接受。
在今年Nvidia的开发者大会GTC 2025上,美光科技率先宣布已经开始量产用于Nvidia GB300的SOCAMM。
据这家美国芯片制造商称,其 SOCAMM 模块的带宽是 RDIMM 的 2.5 倍以上,而功耗仅为 RDIMM 的三分之一。该公司补充说,紧凑的设计还有望实现更高效的服务器布局和更好的热管理。
三星和 SK 海力士也在 GTC 2025 上展示了他们的 SOCAMM 原型。三星报告称,其功耗为 9.2 瓦,与基于 DDR5 的 DIMM 相比,电源效率提高了 45% 以上。
这两家韩国芯片制造商尚未宣布量产计划,但表示正在做好准备,以便“按照市场需求”进入市场。
一位业内官员表示:“美光公司似乎在早期批量生产方面处于领先地位,但这并不是为了立即安装服务器,而是为了进行早期优化。”
与此同时,SOCAMM也被视为三星东山再起的机会。
继在HBM芯片的AI内存竞争中落后于SK海力士之后,三星在今年1-3月期间失去了DRAM市场的头把交椅。这家芯片巨头在AI内存领域未能取得先机后,首次被规模较小的竞争对手超越。
据业内人士透露,三星近期向英伟达交付了SOCAMM模块样品,数量远超竞争对手,这标志着其将努力在下一波AI内存市场中重新夺回领导地位。
预计三星将利用其在LPDDR领域的主导地位,进军SOCAMM市场。据市场追踪机构Omdia的数据,去年第一季度,三星在移动DRAM市场的收入份额为57.9%。
参考链接
https://wccftech.com/nvidia-to-deploy-up-to-800000-units-of-its-socamm-modules-this-year-in-its-ai-products/
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
END
今天是《半导体行业观察》为您分享的第4097期内容,欢迎关注。
推荐阅读

加星标⭐️第一时间看推送,小号防走丢