图片来源:三星电子据报道,Nvidia 正计划推出下一代 AI 处理器 Rubin CPX,此举或为 AI 半导体存储市场带来变革。该处理器专为大上下文处理工作负载设计,预计于 2026 年末推出。与旗下依赖 HBM的旗舰级 AI 加速器不同,Rubin CPX 将搭载 128GB GDDR7(第七代图形双倍数据速率内存)。行业观察人士认为,这一举措或重新平衡这两种主流存储类型的市场需求。Rubin CPX 针对自然语言处理(NLP)及生成式 AI 工作负载进行了优化,可处理数百万个令牌(token)—— 在这类场景中,大上下文窗口的重要性正日益提升。尽管 HBM 凭借超高带宽成为 AI 计算性能的核心支撑,但其高成本、良率有限及供应受限等问题,阻碍了其大规模应用。Nvidia 选择集成 GDDR7 的决策,被视为一项深思熟虑的战略调整,旨在提升 AI 硬件的可扩展性与成本效益。HBM 广泛应用于 Nvidia Hopper、Blackwell 等系列 AI 加速器,已在 AI 服务器的总物料清单成本中占据相当大的比例。行业估算显示,HBM 在单颗 AI 加速器的组件成本中占比最高可达 50%。与之相比,GDDR7 虽带宽较低,但具备更高的可用性与更具吸引力的定价,有助于 AI 硬件实现更广泛的部署。分析师认为,这一设计转向或削弱 HBM 在 AI 应用中的主导地位,同时为图形 DRAM(动态随机存取存储器)开辟新机遇。全球两大存储供应商三星电子(Samsung Electronics)与 SK 海力士(SK Hynix)将从中受益。三星是首家研发出 GDDR7 的企业,且已获得 Nvidia 的早期订单。有报道称,Nvidia 已将从三星的采购量翻倍,采购产品主要用于 RTX 5090 显卡及针对中国市场的 B40 AI 加速器等消费级与中端 AI 产品。SK 海力士于 2024 年启动 GDDR7 量产,预计也将在这一新兴需求中占据更大份额。行业预测凸显了这一转型的规模。受美国出口限制影响,Nvidia 针对中国市场推出的 B40 处理器,预计到 2026 年出货量将达 500 万台。若 Rubin CPX 的 adoption(采用率)遵循类似轨迹,GDDR7 的需求将大幅增长,进而挑战 “GHB 将始终是 AI 唯一关键存储” 的固有认知。不过分析师也提醒,此举并不意味着 HBM 的重要性下降。由于 AI 工作负载在训练大型模型时需更高带宽与效率,HBM 对于顶级数据中心加速器而言仍不可或缺。未来或出现混合策略:Nvidia 及其他芯片厂商将为高端系统配置 HBM,而为成本敏感型或大众市场产品搭载 GDDR7。对韩国存储行业而言,这一转向既带来风险也蕴含机遇。HBM 是利润率极高的细分领域,目前由 SK 海力士主导(其全球市场份额超 50%),而三星正积极扩大该领域份额。若市场大幅向 GDDR7 倾斜,竞争优势或重新分配 —— 尤其是若三星能凭借在 GDDR7 研发中的领先地位及与 Nvidia 的早期客户合作占据先机。与此同时,两种存储类型的共存或推动整体市场扩张,因为 AI 计算正朝着训练、推理、边缘应用等多方向多元化发展。市场观察人士指出,Rubin CPX 的推出时机与 HBM 供应链面临的普遍挑战相契合。下一代 HBM 标准 HBM4 预计于 2026 年前后启动量产,但良率与封装复杂度仍是待解决的问题。若 HBM 供应持续紧张,Nvidia 基于 GDDR7 的架构或将成为追求 “低成本高性能” 客户的实用替代方案。中国市场的竞争格局也在发生变化:受出口限制影响,中国企业获取 Nvidia 最新 HBM 架构加速器的渠道受限。B40 等已采用 GDDR7 的产品表明,地缘政治与供应链因素正影响存储技术的选择。若 Rubin CPX 面向全球市场推出,或通过推动 GDDR7 在 “原 HBM 主导的 AI 场景” 中的规范化应用,进一步加速这一趋势。归根结底,Nvidia 的这一决策凸显了 AI 硬件设计中 “性能与可及性” 平衡的持续演变。尽管 HBM 仍将是最高性能 AI 系统的核心,但 GDDR7 的作用有望同步提升,进而拓宽 AI 应用场景与硬件配置的范围。对存储供应商而言,这不仅意味着产品线间的竞争,更代表着 AI 计算普及所带来的更大增长机遇。原文标题:NVIDIA's Rubin CPX may reshape AI memory demand, boosting GDDR7 over HBM原文媒体:digitimes asia芯启未来,智创生态湾芯展2025与您相约!