美光推出 192GB 低功耗 DRAM 模组,开启 AI 服务器样品交付

半导体产业研究 2025-10-27 08:00

美光推出 192GB 低功耗 DRAM 模组,开启 AI 服务器样品交付图2

图片来源:美光

美光科技(Micron Technology)已启动其新款 192GB SOCAMM2(小外形压缩附着内存模组,Small Outline Compression Attached Memory Module)的客户样品交付工作。该模组为低功耗 DRAM 产品,专为 AI 数据中心设计。

此款模组基于 LPDDR5X 内存与美光最新的 1-gamma 制程工艺打造,在相同紧凑外形下,容量较上一代产品提升 50%。

据美光介绍,相较于前代版本,SOCAMM2 的能效提升超 20%;与同规格 RDIMM(寄存式双列直插内存模组)相比,功耗降低逾三分之二,而尺寸仅为后者的三分之一。

美光表示,该设计有助于降低大型 AI 数据中心集群的功耗并提升密度 —— 在这类集群中,每台机架的 CPU 附加 DRAM 总容量可超过 40TB。

SOCAMM2 由美光与英伟达联合研发,是双方将基于 LPDDR 的低功耗内存推向服务器领域这一整体布局的重要组成部分。该产品旨在通过提升推理与训练系统的带宽及效率,满足大型 AI 工作负载日益增长的计算与能耗需求。

目前,单模组容量最高达 192GB、速率最高为 9.6Gbps 的 SOCAMM2 样品已开始向客户交付,量产计划将与系统发布时间表同步推进。

原文标题:

Micron begins sampling 192GB low-power DRAM module for AI servers

原文媒体:digitimes asia

美光推出 192GB 低功耗 DRAM 模组,开启 AI 服务器样品交付图3


美光推出 192GB 低功耗 DRAM 模组,开启 AI 服务器样品交付图4

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 服务器 美光
more
一台比小天才还猛的「反 AI 座机」,卖爆美国家长群
谷歌云Q1营收首破200亿美元,AI狂热下的算力“甜蜜烦恼”
OpenAI要做的手机,比豆包更进一步
英特尔携手长安汽车天枢智能座舱、华阳通用、面壁智能和北斗智联,以AI Box Ultra引爆端侧AI智能体上车
广东“十五五”规划:聚焦芯片、AI与汽车等领域
AI 走出屏幕,家电变成「机器人」
租了个AI程序员,9秒把公司数据库当bug修掉了,还写下认罪书
平头哥发布首款智能网卡「磐脉 920」,补齐 AI 算力最后一块短板
随着AI引发全球存储器供需紧张,Omdia将2026年半导体行业预测上调至增长62.7%
独家丨Manus 收购案叫停「后遗症」:Meta AI 宫斗迎来最大变数
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号