全球首款HBM4量产:2.5TB/s带宽超越JEDEC标准,AI存储迈入新纪元

电子发烧友网 2025-09-17 07:00
电子发烧友网报道(文 / 吴子鹏)近日,SK 海力士宣布全球率先完成第六代高带宽存储器(HBM4)的开发,并同步进入量产阶段,成为首家向英伟达等核心客户交付 HBM4 的存储厂商。

据悉,SK 海力士 HBM4 内存的 I/O 接口位宽为 2048-bit,每个针脚带宽达 10Gbps,因此单颗带宽可高达 2.5TB/s。这一里程碑不仅标志着 AI 存储器正式迈入 “2TB/s 带宽时代”,更进一步巩固了 SK 海力士在 AI 存储器市场的绝对领导地位。不过,SK 海力士暂未透露该产品的具体堆叠层数,业内人士推测其为 12 层结构。

技术跃迁:从参数突破到架构革新

HBM作为 AI 芯片的 “神经中枢”,其性能直接决定大模型训练与推理的效率。根据 JEDEC(全球半导体标准组织)制定的 HBM4 标准,该代内存采用 2048 位接口,传输速率为 8Gb/s,总带宽提升至 2TB/s,支持 4/8/12/16 层 DRAM 堆栈设计,单堆栈最大容量可达 64GB。此外,HBM4 的通道数量从 HBM3 的 16 个增至 32 个,同时引入 0.7V-0.9V VDDQ 电压与 1.0V-1.05V VDDC 电压选项以优化能效,并搭载 DRFM(定向刷新管理)功能增强数据安全性。按照这一标准,HBM4 的总带宽较上一代 HBM3E 实现 60% 的跨越式增长。

而此次 SK 海力士量产的 HBM4,每针脚带宽达到 10Gbps,远超 JEDEC 标准规定的 8Gbps 上限。这不仅意味着数据处理速度的飞跃,更将为 AI 应用带来革命性变革。SK 海力士预测,HBM4 在 AI 系统中的应用可使服务性能最高提升 69%,有效解决数据中心的数据传输瓶颈问题。

在研发过程中,SK 海力士采用了两项关键创新技术:自主开发的 MR-MUF(批量回流模塑底部填充)封装技术,以及第五代 10nm 级(1b)DRAM 工艺。其中,MR-MUF 技术在堆叠半导体芯片后,通过填充液体保护材料并使其固化,既能提高生产效率与散热效果,又能有效控制芯片翘曲现象;相比传统 “每堆叠一颗芯片就铺设一层薄膜材料” 的工艺,该技术显著提升了产品稳定性。

配合第五代 10nm 级(1b)DRAM 工艺,SK 海力士的 HBM4 在性能提升的同时,实现了 40% 的能效优化,为数据中心大幅降低功耗与散热成本。

此次量产的 HBM4 单颗容量达 36GB,采用 24Gb DRAM 颗粒,已通过英伟达下一代 GPU 平台 “Vera Rubin” 的认证,预计将于 2025 年底前实现规模化出货。若业内推测属实,此次量产的为 12 层堆栈(12Hi)版本;更高端的 16 层堆栈(16Hi)版本容量将扩展至 64GB,计划于 2026 年量产,主要面向英伟达 Rubin Ultra 等高端 AI 加速器平台。

从市场格局来看,当前 SK 海力士在全球 HBM 市场的份额已超 70%;2025 年第一季度,其 DRAM 市占率更以 36.7% 首次超越三星,终结了三星长达 30 年的 DRAM 市场霸主地位。随着 HBM4 的量产,SK 海力士不仅在技术上领先三星、美光一个梯队,更通过锁定英伟达等核心客户,提前占据 2026 年 AI 高端存储市场的先发优势。

行业重构:算力革命与地缘竞合

在 AI 算力基础设施中,HBM 性能直接决定 AI 芯片运算效率的天花板。在传统 GDDR 内存架构下,数据传输能耗占系统总功耗的 60% 以上,已成为制约大模型训练效率的 “内存墙”;而 HBM 通过 3D 堆叠技术与硅通孔(TSV)工艺,实现了带宽与能效的双重突破,完美契合 AI 算力的核心需求。

与传统内存相比,HBM 通过垂直堆叠 8-16 层 DRAM 芯片,在相同体积下实现了数倍于 GDDR 的带宽密度;对于并行计算需求强烈的 AI 训练场景,HBM 的多通道架构能显著降低数据延迟,提升 GPU 利用率。HBM4 的量产,标志着半导体产业正式进入 “内存即战略资产” 的新时代 —— 在 AI 算力需求每 3-4 个月翻一番的 “新摩尔定律” 范式下,HBM4 凭借 2.5TB/s 的带宽与 64GB 的容量,将直接缩短大模型训练周期,降低生成式 AI 的应用门槛。

技术路线的分化正重塑全球 HBM 产业生态:SK 海力士选择与台积电合作优化 CoWoS 封装技术,三星依托自身存储与代工业务协同开发 “X-Cube” 3D 集成技术,美光则侧重 HBM4E 的定制化逻辑基底选项。这种技术路线的竞争不仅决定企业自身的市场地位,更将影响全球 AI 产业链的格局 —— 采用不同 HBM 技术的 AI 芯片将形成差异化性能表现,进而引导下游应用场景的发展方向。

地缘政治因素为 HBM 竞争增添了复杂变量:SK 海力士推进韩国本土与美国工厂的扩建计划,三星恢复平泽第五工厂建设,美光加码新加坡工厂投资,三者共同构成了 HBM 产能的全球布局。在全球半导体供应链重构的背景下,HBM 作为 AI 基础设施的核心组件,已成为各国科技竞争的战略要地,这也让国内行业对国产 HBM 的进展更为关注。

当前,国内大模型研发正面临严峻的算力瓶颈,而 HBM 短缺是核心症结之一。训练一个千亿参数的大模型需万卡级 GPU 集群支撑,单台 AI 服务器的 HBM 容量已从早期的 40GB 跃升至 80GB、140GB一方面,国内在高端算力卡采购上受限,现有算力储备难以满足需求;更严峻的是,美国对 HBM 相关设备的出口管制已形成 “技术陷阱”—— 允许出口降级版 AI 芯片,却限制高端 HBM 供应,直接导致国产 AI 芯片性能落后国际领先水平至少 2-3 代,严重制约国内 AI 算力基础设施的升级步伐。

不过,国产 HBM 的替代进程虽任重道远,但已取得阶段性进展。根据东方证券此前报道,长鑫存储今年将在去年大幅增产的基础上,进一步实现近 50% 的产能同比增长;到 2025 年末,长鑫存储按比特出货量计的市占率将从 2025 年一季度的 6% 提升至 8%,其 DDR5/LPDDR5 产品的市场份额预计将从一季度的 1% 左右,分别提升至 7% 和 9%。先进存储产能的扩充,以及国产 HBM 产品逐步进入量产阶段,将持续利好上游设备与材料环节。另有消息显示,长鑫存储的 HBM3 产品已完成送样,HBM3E 产品正处于研发当中。

当前,HBM4 的研发已进入全球竞争阶段,若国内企业能加速 HBM4 技术攻关,将为国产算力水平的提升带来巨大增益。

结语

SK 海力士全球率先量产 HBM4,以 2.5TB/s 带宽突破 JEDEC 标准,不仅标志着 AI 存储正式迈入 “2TB/s 时代”,更将半导体产业推向 “内存即战略资产” 的新阶段。从全球竞合视角看,SK 海力士的领先并非孤例 —— 三星 “X-Cube” 技术、美光 HBM4E 定制化路线的追赶,叠加韩、美、新等地的产能布局,让 HBM 成为各国科技博弈的核心赛道。

不难看出,HBM 的竞争早已超越 “技术与产能比拼” 的范畴,本质上是全球 AI 产业话语权的争夺;而国产 HBM 力量的每一步突破,都将成为重塑这一格局的重要变量。

资讯配图

声明:本文由电子发烧友原创,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。


更多热点文章阅读


点击关注 星标我们



将我们设为星标,不错过每一次更新!
资讯配图

资讯配图喜欢就奖励一个“在看”吧!

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 存储
more
iPhone 17测评解禁!Air耐弯吗?基础款不“丐”,全系续航都很猛...
我试戴了 Meta AI 带屏眼镜:第一次觉得 AI 眼镜有戏了
【报告】Agent专题三:AI行业专题报告:国产Agent不断演进,通用协议推进系统性应用(附PDF下载)
里程碑!逻辑智能发布全球首个完全开源语音大模型框架LLaSO,语音AI迎来新纪元
AI芯片独角兽一年估值翻番!放话“三年超英伟达”,最新融资53亿超预期
百度智能云,实现AI云六连冠
体验完 Meta 最新的 AI 眼镜,我想把买 iPhone 17 的预算留给它
【报告】Agent专题四:西南证券-AI专题·Agent:智能体基建厚积薄发,商业化应用曙光乍现(附PDF下载)
算力租赁价格「腰斩」或引发大厂退租;IDC项目批复通过率仅约三成;数十亿收入的AI芯片公司没有销售?;消纳国产算力最高补贴60%
突发!第一所被AI干崩的顶尖大学,刚刚倒闭了
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号