在人工智能(AI)与数据中心需求的驱动下,高带宽内存(HBM)被誉为AI时代的“新石油”,也正掀起下一代“存储革命”。
随着AI模型的复杂度和规模不断提升,尤其是生成式AI和大模型训练对算力的需求激增,数据中心对高性能存储的需求也日益迫切。而HBM通过垂直堆叠多个DRAM芯片,结合硅通孔(TSV)技术,实现了远超传统DDR或GDDR的带宽和容量,从而有效缓解了AI芯片面临的“存储墙”问题。
HBM技术作为下一代高性能计算和人工智能应用的核心技术,其技术路线图和最新发展动态备受关注。近期,韩国科学技术院(KAIST)旗下的Terabyte Interconnection and Package Laboratory(TERALAB)发布了关于HBM的研究成果。这项研究成果由被业内部分人士誉为“HBM之父”的金正浩教授主导完成,详细阐述了HBM的未来路线图,揭示了HBM4到HBM8的诸多技术细节,将为未来数据中心和AI应用提供强大的技术支撑。
与此同时,受到AI和高性能计算(HPC)需求的驱动,尤其是在英伟达、AMD和英特尔等芯片巨头的推动下,HBM市场正迎来新一轮的升级和竞争。而存储原厂如SK海力士、三星和美光科技也正积极推进HBM4的量产。值得注意的是,日本软银近日也宣布与英特尔合作开发一款新型堆叠式DRAM芯片,其设计不同于现有的HBM,预计可将电力消耗减少约50%。
以上发展动态和行业趋势,不仅反映了AI和HPC需求的增长,也预示着HBM市场将迎来更加激烈的竞争和更快的技术迭代。然而,HBM的发展仍面临产能瓶颈、封装技术难题以及成本压力等多重挑战。未来,随着技术的不断进步和市场的持续扩张,HBM有望在AI和高性能计算领域发挥更加重要的作用,推动整个存储产业迈入新的发展阶段。
AI需求爆发:HBM增长的核心驱动力
进入2025年,全球科技巨头在AI数据中心的投资与布局显著加速。
目前,AI算力集群的建设和数据中心的规划,以科技公司的业务导向为主,如微软云、亚马逊AWS、Google Cloud、阿里云、腾讯云等,通过AI赋能应用加速推动用户上云的需求,或像Meta、特斯拉等拥有海量数据和AI需求的公司,自建庞大的专用AI集群,其目的主要是服务自身业务。
今年1月,包括OpenAI、软银(SoftBank)、甲骨文(Oracle)和中东人工智能基金MGX等在内的美国政府和多家科技巨头合作启动了“星际之门计划”。该项目计划在未来四年内投资高达5000亿美元,其中首期投资为1000亿美元。
与此同时,亚马逊、微软、谷歌和Meta等科技巨头也将在2025年进一步扩大在AI数据中心的投资,以支持云计算和AI服务的扩展。据CFM统计,2025年大型云服务商微软、谷歌、亚马逊和Meta的资本支出总额将超过3200亿美元,同比增幅将达到30%。
其中,微软计划在2025财年投资800亿美元用于AI数据中心,其中一半以上的支出将在美国。亚马逊预计增加约3成,达到1000亿美元左右,主要用于AI相关业务。谷歌母公司Alphabet的资本支出则将从2024年的525亿美元增至约750亿美元,主要用于AI基础设施,如服务器和数据中心。Meta也计划投资600亿至650亿美元。
Meta CEO扎克伯格甚至表示,2025年是“人工智能的决定性一年”。
尽管DeepSeek R1发布之后,人工智能的发展重心正从模型训练向实际推理应用转移,同时也在一定程度上缓解了行业算力焦虑,但“算力至上”的共识似乎仍没有打破,也未真正动摇美国“星际之门”计划的基础。
值得关注的是,除了中美欧之外,中东国家也在加大AI数据中心的投资与布局,特别是沙特阿拉伯和阿联酋,正在通过大规模投资数据中心和AI基础设施,推动本国的数字化转型和经济增长。根据SemiAnalysis预测,到2030年,中东地区数据中心运营容量或将超过6GW,并仍可能有显著的上升空间。仅阿联酋的G42就计划在2026年订购数十万颗GPU。
在AI数据中心的资本支出持续增长的同时,HBM的需求也将经历“爆发式”增长。根据Yole Group的预测,主要用于AI的HBM市场营收将从2024年的170亿美元增长到2030年的980亿美元,年复合增长率高达33%。SK海力士预计,到2025年其HBM销售额将占其总内存销售额的50%以上,该公司与美光科技的HBM产能在2025年均已完全分配完毕。
值得一提的是,HBM技术正从数据中心向移动终端等边缘设备扩展。其中,移动HBM通过堆叠LPDDRDRAM来增加内存带宽,同时保持低功耗,适合移动终端的高性能需求。三星和SK海力士就分别开发了VCS和VFO技术,以实现移动HBM的量产。未来HBM在移动大模型终端中的应用将普及,如AI手机、AI PC等设备对内存性能的要求不断提高。最近有消息称,2027年20周年纪念版iPhone将带来多项创新,HBM技术预计被引入。而华为也打算将HBM技术引入到智能手机,甚至时间可能比苹果更早。
此外,HBM在智能汽车中的应用也在不断拓展。智能汽车对实时数据处理、高分辨率图像处理和数据存储等需求较高,而HBM恰好能够满足这些需求。比如,SK海力士的HBM2E已用于谷歌旗下的Waymo自动驾驶汽车。
不过,HBM在移动设备和PC等边缘设备中的应用仍面临一些挑战,其中成本较高是主要问题之一。
HBM技术演进:从HBM3E到HBM4
HBM技术自2015年推出以来,已经历了从HBM1到HBM3e的多次迭代,并正在向HBM4迈进。HBM4作为第六代HBM产品,将在多个方面实现重大技术突破,包括更高的带宽、更大的容量、更低的功耗以及更先进的封装技术。
HBM3e是HBM3的扩展版本,在带宽、容量和能效方面相比HBM3有显著提升,在2024年由美光科技、SK海力士等头部厂商量产,是AI加速卡的标配内存。
根据TrendForce的预测,2025年HBM3E的市场需求将大幅增长,尤其是在AI芯片迭代加速的背景下,HBM3E的单位用量和单芯片容量将显著提升。HBM3E采用24Gb单晶芯片堆栈,并支持8层(8-Hi)和12层(12-Hi)配置,单个HBM3E芯片的容量可达24GB,这将为AI服务器和高性能计算提供更强的算力支持。
毫无疑问,英伟达是HBM市场的最大买家,2025年推出的Blackwell Ultra系列GPU将全面搭载HBM3E,其中B200系列将采用HBM3E 8-Hi配置,Blackwell Ultra则可能采用8颗12-Hi HBM3E,进一步提升其算力密度。TrendForce预测,2025年英伟达在HBM3E市场的采购比重将突破70%,甚至可能达到85%以上。此外,英伟达在2025年推出的GB200系列,进一步推动HBM3E的市场普及。
今年6月,AMD在2025全球AI发展大会发布的最新Instinct MI350系列GPU,支持128条HBM3E内存通道,每颗HBM3E的单颗容量提升至36GB,总体内存容量达到288GB,内存带宽提升至8TB/s,实现了4倍的AI计算能力提升和35倍的推理性能飞跃。
由此可见,HBM3E将成为2025年HBM市场的主流产品,其需求也将显著增长。

表1:HBM3E与HBM4关键性能对比
而HBM4则是HBM3e的“继任者”,预计将在2026年大规模量产应用,其设计目标直指“带宽翻倍、容量倍增、能效再优化”,以满足万亿参数AI模型需求。
在核心技术上,HBM4的I/O数量从1024增至2048位,通过增加TSV数量并缩小凸块间距实现,使传输速度翻倍。这将是HBM技术自2015年以来的最大变化。同时,HBM4首次采用逻辑-内存异构架构,基础层(Base Die)由晶圆代工厂(如台积电)以3-7nm工艺制造,支持可定制化加速功能。此外,HBM4利用混合键合取代传统热压键合(TCB),实现<1μm凸点间距,提升层间互连密度并降低功耗。
目前,英伟达和AMD均已确认在其下一代产品(如英伟达的Rubin和AMD的Instinct MI400)中采用HBM4技术。其中,英伟达的Rubin GPU将采用8个HBM4,而高端的RubinUltra则会配备16个HBM4。Rubin的GPU裸片面积预计为728mm2,单颗裸片功耗800W,其搭载的HBM4内存总容量可达288-384GB,总带宽16-32TB/s,整个芯片功耗2200W。而AMD的Instinct MI400则更进了一步,计划提供高达432GB的HBM4内存容量,内存带宽可达19.6TB/s。不过,因设计复杂度与逻辑芯片成本,HBM4溢价预计>30%(HBM3E溢价约20%)。

2025年3月,SK海力士交付用于AI的新型超高性能DRAM 12层HBM4样品
目前各大存储巨头如SK海力士、三星电子和美光科技,正积极推进HBM4的量产,以抢占未来市场的主导地位。今年3月,SK海力士已开始向客户送样12层HBM4产品,并计划在2025年下半年完成量产准备,预计2026年量产HBM4产品。6月,美光科技也宣布向多个关键客户交付HBM4样品,计划在2026年实现HBM4的产能爬坡。三星也计划在2025年下半年实现HBM4的量产,并预计于2026年开始商业供应。
HBM“线路图”:下一代HBM存储革命
HBM4作为下一代高性能内存标准,将于2026年大规模量产应用。而在AI技术需求的推动下,HBM技术仍将不断迭代与升级,集中围绕更高的带宽、更大的容量、更低的功耗、更先进的制造工艺与封装技术、更广泛的散热解决方案等方面开展。
近期,KAIST旗下TERALAB发布的HBM线路图,展现了从单纯容进化。从HBM4到HBM8的技术演进中,HBM不仅在带宽上持续突破,还通过优化互连数量、单线路数据速率与TSV密度,进一步提升了整体性能。

表2:下一代HBM技术路线图
其中,HBM的发展始终围绕“更高带宽”这一核心目标展开,通过TSV、混合键合、封装工艺优化和架构创新等多方面的技术突破,实现了从HBM4到HBM8的跨越式发展。根据KAIST预测,HBM技术将从HBM4发展到HBM8,带宽将从2TB/s增长到64TB/s,数据传输速率将从8GT/s提升到32GT/s。这种指数级增长背后,是混合键合、窄间距封装等工艺的突破——从HBM3的微凸点(MR-MUF)技术到HBM5的无凸点Cu-Cu直接键合,键合精度从35μm级向10-15μm级演进。
其次,存储容量的升级与带宽增长形成协同效应,这种效应在HBM技术的演进中尤为明显。HBM4通过将堆叠层数从HBM3的8/12-Hi提升至12/16-Hi,并结合24Gb/die的存储密度,使单颗容量达到36/48GB。到HBM8,其将通过20/24-Hi的堆叠与80Gb/die的密度,实现200/240GB的超大容量。这种容量的跃升不仅依赖于DRAM工艺的进步,还得益于分层存储架构与内存网络的创新。比如,HBM7通过集成LPDDR-HBM与高带宽闪存(HBF),构建起“内存-存储”一体化网络,支持128GB/s的HBF链路与CXL接口,实现了从内存到存储的无缝数据流转。
另外,HBM技术通过将计算能力与存储架构深度融合,正在重塑AI硬件的底层逻辑。其核心在于通过“近内存计算(NMC)”技术将计算单元直接嵌入存储堆叠,从而减少数据在CPU、GPU与内存之间的迁移,显著降低延迟并提升计算能效。HBM4通过定制基底芯片与AI强化TSV布局优化,实现了带宽与容量的突破。HBM5则确立了近内存计算模式,通过垂直异构堆叠提升算力密度与能效比。HBM6在结构上实现了空间扩展与容量共享,迈入多塔异构架构阶段,为大型模型提供更高效的内存平台。HBM7进一步引入“双塔式HBM-NMC”架构,通过两堆DRAM与2048条中介层通道与GPU连接,构建起以存储为中心的计算架构。
此外,3D集成技术的突破为HBM的演进提供坚实的物理基础。随着封装需求的不断提升,硅中介层在尺寸、成本和制造工艺上的限制逐渐显现,尤其是在面对更大规模的芯片集成时,硅中介层的面积限制成为了一个瓶颈。为了解决这一问题,HBM6引入了硅/玻璃混合中介层的设计,通过将硅与玻璃结合,不仅突破了硅中介层的面积限制,还实现了超大尺寸封装的可能,从而支持更多HBM堆叠与GPU的集成。HBM6的硅/玻璃混合中介层标志着封装技术从单一材料向异质集成的跨越。HBM8则进一步推动了封装技术的创新,采用了双面中介层设计,并在中介层中嵌入冷却通道与垂直互连柱。未来HBM8的这一突破意味着HBM从单纯存储器件向系统级解决方案的转变,为未来的高性能计算和人工智能应用奠定了基础。
当然,随着功耗密度大幅上行,能耗和散热问题日益突出,将成为行业长期博弈的主线之一。在HBM4阶段,冷却方式主要依赖于顶部液冷,即通过在芯片封装顶部加装散热器,将冷却液泵送至热源。然而,随着HBM4的功耗和热密度的增加,这种冷却方式逐渐力不从心。金正浩教授指出,HBM4的冷却液仅应用于热源顶部的散热器,而无法有效应对整个堆叠的散热需求。因此,HBM5的浸没式冷却成为必然选择,即整个芯片封装和基座芯片将被浸入冷却液中。他也介绍,继HBM5之后,在HBM7上冷却方式将再次成为决胜的关键。HBM7将采用嵌入式冷却,即冷却液将通过专用的流体TSV通道注入DRAM芯片间隙,以实现更高效的散热。
总结
综上所述,人工智能和数据中心需求的急剧增长正在推动HBM存储技术的革命性演进与迭代。HBM作为突破“内存墙”的关键技术,将通过3D堆叠和先进封装技术,实现带宽和集成度的显著提升,成为AI和高性能计算领域的重要支撑。
从HBM4到HBM8的演进,不仅是一次技术的升级,更是对整个计算架构的重新定义。HBM将从单纯的高速存储演变为“内存即计算”的核心组件,推动AI、大数据分析和高性能计算的进一步发展。未来,HBM还将与光互联、片上网络(NoC)、存算融合等前沿技术结合,构建新一代高性能系统的核心内存平台。
