根据华为官网预告,华为将于8月27日推出新款AI SSD,该产品定位为数据中心级,用于大模型训练和推理场景,并非个人电脑消费级SSD。
华为的AI SSD产品定位AI时代高端SSD,旨在解决传统SSD在AI领域的性能短板,破解AI训练推理中的“显存墙”难题。
随着大语言模型的参数量从千亿向万亿级别迈进,AI计算对基础设施提出了前所未有的要求。作为GPU等计算核心的“左膀右臂”,HBM凭借其超高带宽成为了AI训练和推理场景下不可或缺的关键组件。
然而,HBM的技术特性也带来了两大核心瓶颈:首先是容量受限,即便是最先进的HBM堆栈,其容量也仅以数十GB计,面对动辄数TB的大模型参数和数据集,显得捉襟见肘,形成了所谓的“显存墙”或“内存墙”难题。其次是高昂的成本和紧张的产能,使得AI算力的扩展成本居高不下。
正是在这一行业痛点之下,市场迫切需要一种能够协同甚至部分替代HBM功能、兼具大容量与成本效益的创新方案。华为预告将于2025年8月27日发布的AI SSD,正是瞄准这一战略机遇的产物。华为将通过技术创新,提供大容量SSD,降低对高性能HBM的依赖,提升SSD的价值。
华为的AI SSD新品发布会将于8月27日在上海举行,主题为“AI SSD,加速智能经济涌现”。华为的AI SSD技术通过将AI矢量数据运算从DRAM迁移到SSD闪存,利用存储单元物理特性实现矩阵运算,降低处理器压力和对HBM的依赖,提升运算效率并降低功耗,推动智能经济从“概念”走向“落地”,从“单点突破”迈向“全面涌现”。
根据现有的信息来理解,华为的破局之道并非简单地提升传统SSD的读写速度,而是提出了一种名为“以存代算”(或称“存内计算”,Processing-in-Storage)的全新架构理念 。其核心思想是将过去必须由CPU/GPU在DRAM或HBM中完成的部分计算任务(尤其是AI推理中的矢量数据运算),下沉到SSD存储介质中执行,从而绕开传统计算架构中数据在存储与计算单元之间频繁迁移的瓶颈,直接挑战AI时代的数据存储与处理范式。
值得一提的是,华为最近推出的UCM(推理记忆数据管理器)是一项以KV Cache(键值缓存)为核心的推理加速套件,旨在优化AI推理过程中的数据管理与性能。该技术通过分级管理推理过程中产生的KV Cache记忆数据,实现高吞吐、低时延的推理体验,并降低每Token的推理成本。
UCM的核心理念是根据数据热度在不同存储介质(如HBM、DRAM、SSD)中分级缓存数据,从而扩充HBM的容量,减少对高带宽内存(HBM)的依赖,同时提升推理效率。通过智能分级缓存和多级缓存算法,UCM能够优化算存协同效率,提升推理速度和系统吞吐量。
有分析认为,KV Cache可以优化计算效率、减少重复运算,但会对HBM显存造成巨大压力,而UCM的关键作用就是减轻HBM压力,让SSD在训练和推理中发挥更大作用。这可能也是华为很快又推出新款AI SSD的原因。
THE END
2025-08-24

2025-08-24

2025-08-23

2025-08-23

2025-08-22

