电子发烧友网报道(文 / 吴子鹏)近日,SK 海力士宣布全球率先完成第六代高带宽存储器(HBM4)的开发,并同步进入量产阶段,成为首家向英伟达等核心客户交付 HBM4 的存储厂商。据悉,SK 海力士 HBM4 内存的 I/O 接口位宽为 2048-bit,每个针脚带宽达 10Gbps,因此单颗带宽可高达 2.5TB/s。这一里程碑不仅标志着 AI 存储器正式迈入 “2TB/s 带宽时代”,更进一步巩固了 SK 海力士在 AI 存储器市场的绝对领导地位。不过,SK 海力士暂未透露该产品的具体堆叠层数,业内人士推测其为 12 层结构。技术跃迁:从参数突破到架构革新HBM作为 AI 芯片的 “神经中枢”,其性能直接决定大模型训练与推理的效率。根据 JEDEC(全球半导体标准组织)制定的 HBM4 标准,该代内存采用 2048 位接口,传输速率为 8Gb/s,总带宽提升至 2TB/s,支持 4/8/12/16 层 DRAM 堆栈设计,单堆栈最大容量可达 64GB。此外,HBM4 的通道数量从 HBM3 的 16 个增至 32 个,同时引入 0.7V-0.9V VDDQ 电压与 1.0V-1.05V VDDC 电压选项以优化能效,并搭载 DRFM(定向刷新管理)功能增强数据安全性。按照这一标准,HBM4 的总带宽较上一代 HBM3E 实现 60% 的跨越式增长。而此次 SK 海力士量产的 HBM4,每针脚带宽达到 10Gbps,远超 JEDEC 标准规定的 8Gbps 上限。这不仅意味着数据处理速度的飞跃,更将为 AI 应用带来革命性变革。SK 海力士预测,HBM4 在 AI 系统中的应用可使服务性能最高提升 69%,有效解决数据中心的数据传输瓶颈问题。在研发过程中,SK 海力士采用了两项关键创新技术:自主开发的 MR-MUF(批量回流模塑底部填充)封装技术,以及第五代 10nm 级(1b)DRAM 工艺。其中,MR-MUF 技术在堆叠半导体芯片后,通过填充液体保护材料并使其固化,既能提高生产效率与散热效果,又能有效控制芯片翘曲现象;相比传统 “每堆叠一颗芯片就铺设一层薄膜材料” 的工艺,该技术显著提升了产品稳定性。配合第五代 10nm 级(1b)DRAM 工艺,SK 海力士的 HBM4 在性能提升的同时,实现了 40% 的能效优化,为数据中心大幅降低功耗与散热成本。此次量产的 HBM4 单颗容量达 36GB,采用 24Gb DRAM 颗粒,已通过英伟达下一代 GPU 平台 “Vera Rubin” 的认证,预计将于 2025 年底前实现规模化出货。若业内推测属实,此次量产的为 12 层堆栈(12Hi)版本;更高端的 16 层堆栈(16Hi)版本容量将扩展至 64GB,计划于 2026 年量产,主要面向英伟达 Rubin Ultra 等高端 AI 加速器平台。从市场格局来看,当前 SK 海力士在全球 HBM 市场的份额已超 70%;2025 年第一季度,其 DRAM 市占率更以 36.7% 首次超越三星,终结了三星长达 30 年的 DRAM 市场霸主地位。随着 HBM4 的量产,SK 海力士不仅在技术上领先三星、美光一个梯队,更通过锁定英伟达等核心客户,提前占据 2026 年 AI 高端存储市场的先发优势。行业重构:算力革命与地缘竞合在 AI 算力基础设施中,HBM 性能直接决定 AI 芯片运算效率的天花板。在传统 GDDR 内存架构下,数据传输能耗占系统总功耗的 60% 以上,已成为制约大模型训练效率的 “内存墙”;而 HBM 通过 3D 堆叠技术与硅通孔(TSV)工艺,实现了带宽与能效的双重突破,完美契合 AI 算力的核心需求。与传统内存相比,HBM 通过垂直堆叠 8-16 层 DRAM 芯片,在相同体积下实现了数倍于 GDDR 的带宽密度;对于并行计算需求强烈的 AI 训练场景,HBM 的多通道架构能显著降低数据延迟,提升 GPU 利用率。HBM4 的量产,标志着半导体产业正式进入 “内存即战略资产” 的新时代 —— 在 AI 算力需求每 3-4 个月翻一番的 “新摩尔定律” 范式下,HBM4 凭借 2.5TB/s 的带宽与 64GB 的容量,将直接缩短大模型训练周期,降低生成式 AI 的应用门槛。技术路线的分化正重塑全球 HBM 产业生态:SK 海力士选择与台积电合作优化 CoWoS 封装技术,三星依托自身存储与代工业务协同开发 “X-Cube” 3D 集成技术,美光则侧重 HBM4E 的定制化逻辑基底选项。这种技术路线的竞争不仅决定企业自身的市场地位,更将影响全球 AI 产业链的格局 —— 采用不同 HBM 技术的 AI 芯片将形成差异化性能表现,进而引导下游应用场景的发展方向。地缘政治因素为 HBM 竞争增添了复杂变量:SK 海力士推进韩国本土与美国工厂的扩建计划,三星恢复平泽第五工厂建设,美光加码新加坡工厂投资,三者共同构成了 HBM 产能的全球布局。在全球半导体供应链重构的背景下,HBM 作为 AI 基础设施的核心组件,已成为各国科技竞争的战略要地,这也让国内行业对国产 HBM 的进展更为关注。当前,国内大模型研发正面临严峻的算力瓶颈,而 HBM 短缺是核心症结之一。训练一个千亿参数的大模型需万卡级 GPU 集群支撑,单台 AI 服务器的 HBM 容量已从早期的 40GB 跃升至 80GB、140GB。一方面,国内在高端算力卡采购上受限,现有算力储备难以满足需求;更严峻的是,美国对 HBM 相关设备的出口管制已形成 “技术陷阱”—— 允许出口降级版 AI 芯片,却限制高端 HBM 供应,直接导致国产 AI 芯片性能落后国际领先水平至少 2-3 代,严重制约国内 AI 算力基础设施的升级步伐。不过,国产 HBM 的替代进程虽任重道远,但已取得阶段性进展。根据东方证券此前报道,长鑫存储今年将在去年大幅增产的基础上,进一步实现近 50% 的产能同比增长;到 2025 年末,长鑫存储按比特出货量计的市占率将从 2025 年一季度的 6% 提升至 8%,其 DDR5/LPDDR5 产品的市场份额预计将从一季度的 1% 左右,分别提升至 7% 和 9%。先进存储产能的扩充,以及国产 HBM 产品逐步进入量产阶段,将持续利好上游设备与材料环节。另有消息显示,长鑫存储的 HBM3 产品已完成送样,HBM3E 产品正处于研发当中。当前,HBM4 的研发已进入全球竞争阶段,若国内企业能加速 HBM4 技术攻关,将为国产算力水平的提升带来巨大增益。结语SK 海力士全球率先量产 HBM4,以 2.5TB/s 带宽突破 JEDEC 标准,不仅标志着 AI 存储正式迈入 “2TB/s 时代”,更将半导体产业推向 “内存即战略资产” 的新阶段。从全球竞合视角看,SK 海力士的领先并非孤例 —— 三星 “X-Cube” 技术、美光 HBM4E 定制化路线的追赶,叠加韩、美、新等地的产能布局,让 HBM 成为各国科技博弈的核心赛道。不难看出,HBM 的竞争早已超越 “技术与产能比拼” 的范畴,本质上是全球 AI 产业话语权的争夺;而国产 HBM 力量的每一步突破,都将成为重塑这一格局的重要变量。声明:本文由电子发烧友原创,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。更多热点文章阅读卫星通信商业化拐点:T/R芯片集成化+GaN赋能,迈入小型化特斯拉AI芯片战略升级,“史诗级”芯片接棒Dojo不是HBM,端侧AI的超高带宽DRAM!这些厂商发力堆叠方案!上半年国产模拟芯片强势复苏,厂商营收暴涨超100%博通获OpenAI“百亿大单”,AI芯片业务收入大增点击关注 星标我们将我们设为星标,不错过每一次更新!喜欢就奖励一个“在看”吧!