榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

量子位 2025-08-26 13:43

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。

KV Cache (Key-Value Cache)作为提升生成速度的核心技术,却像一个 “吞存巨兽”—— 每增加一个 token,就需要更多显存存储键(Key)和值(Value)向量,最终成为制约模型规模扩张、并发能力提升的 “紧箍咒”如何高效、经济地扩展KV Cache存储空间,已成为全球AI产研界亟待攻克的高地。

业界探索

Nvidia开源的Dynamo项目,实现存储系统多级缓存算法,热数据在显存、温数据在主机内存、冷数据在 SSD 或远端对象存储,并通过一套统一的索引 + 异步流水线实现自动迁移与透明访问,但是多级存储之间的数据迁移流程复杂,延迟开销难以压缩。

微软推出的LMCahce存储系统,高度兼容vLLM等推理框架,但是对分布式存储支持较低,空间上限低。

阿里巴巴提出一种将KV Cache空间扩展到Tair数据库的远端存储方案,存储空间易扩展,但是读写性能难以满足LLM推理业务的低延迟需求。

资讯配图

CXL(Compute Express Link) 作为一种新兴的高速互联技术,以其高带宽、低延迟和硬件级缓存一致性的特性,为破解内存瓶颈带来了新的希望,可以解决AI和高性能计算中遇到的内存瓶颈问题。

业界关于CXL存储加速LLM推理的研究仍然较少,探索如何利用CXL等新型介质扩展KV Cache空间,进而将成熟的软件栈迁移到CXL硬件场景,是一项非常有意义的工作。

中兴通讯Mariana探索

中兴通讯公司和华东师范大学的研究团队联合提出了一种名为Mariana(马里亚纳)的分布式共享KV存储技术,该工作《Mariana: Exploring Native SkipList Index Design for Disaggregated Memory》论文发表在IEEE Transactions on Parallel and Distributed Systems (TPDS) 。

Mariana作为一个面向计算-内存分离架构的高性能分布式KV索引,可以完美适配大模型推理场景的GPU、KV Cache存储,通过把节点锁细化到条目级、用自适应分裂/合并抑制热点写放大,并以SIMD友好的数据布局和轻量级热点缓存,实现比现有方案高 1.7 倍吞吐、尾延迟降低 23% 的纯有序索引。

Mariana解决了“如何在高并发、热点倾斜、延迟敏感的高性能计算场景,让KV索引同时做到高吞吐、低延迟、可扩展?”的问题,为KV Cache存储提供新的优化方案。

资讯配图

Mariana提出三项关键创新,分别针对上述三个问题:

1. 细粒度并发控制方案(MSCS - Multi-Slot lock-based Concurrency Scheme)

将并发控制的粒度从节点级下降到条目级。在每个叶子节点内预留多个槽位Slots和对应的闩锁Latch,写入操作时,客户端通过RDMA_CAS竞争一个空闲槽位的闩锁,而不是竞争整个节点的锁,实现同一个节点的不同槽位并发写入,极大地减少了竞争。叶子节点支持动态调整叶子数据范围、自动扩缩,将热点区域隔离以减少后续该节点上的竞争,显著降低了写密集型和高偏斜(skewed)工作负载下的争用,提高吞吐量同时降低了尾延迟。

资讯配图

2. 为叶子节点定制的数据布局(TLN - Tailored Leaf Node)

采用分离式存储,Key在内存中连续存放,value则与校验和在另一内存块连续存储;连续键数组可一次性加载至SIMD寄存器,大幅提升查找速度;优化读写操作序列,避免多次RDMA读写指令。

资讯配图

3. 自适应缓存策略

提出一种能够快速感知并缓存变化热点的轻量级缓存机制。使用Count-Min Sketch算法及时识别出热点数据,维护一个按热度排序的链表。计算节点缓存热点L1节点的最小键及存储地址,大幅降低热点数据加载延迟,提升存储系统的读性能。

资讯配图

实验结果表明,Mariana与目前最新的分布式KV存储系统相比,在读写吞吐、延迟性能方向都有显著的提示。KV Cache属于读多写少场景,Mariana能够解决目前存储方案中的性能瓶颈。

资讯配图

应用验证

MARIANA的创新设计与大模型KV Cache需求高度契合:

基于vLLM框架搭建大模型推理应用,验证关闭KV Cache、开启显存KV Cache、开启Mariana多级存储几个场景的推理性能,配置足够多的并发测试请求,GPU显存空间有限,只能存放50%的KV数据。

资讯配图

测试结果显示,基于Mariana扩展的多级KV Cache存储能够显著提升大模型的推理过程预加载阶段的性能。

拥抱CXL新生态

Mariana的强大之处在于其设计理念与底层硬件解耦。其核心算法无需重新设计,即可从RDMA网络平滑迁移至未来的CXL硬件生态。仅需将远程访问API替换为CXL.mem操作,便能充分利用CXL的低延迟和一致性优势,成为构建下一代大模型推理基础设施的坚实基石。

从优化细粒度并发控制到适配CXL新生态,Mariana的突破不仅是一次技术创新,更重新定义了大模型推理的存储逻辑——当显存不再是不可逾越的壁垒,当分布式存储能在高吞吐与低延迟间找到完美平衡点,大模型的规模化应用将迎来真正的普惠时代。

或许在不久的将来,随着CXL技术的成熟与Mariana这样的技术方案的落地,我们会看到百亿/千亿参数模型在普通硬件上高效运行,让 AI 的算力红利真正渗透到每一个需要它的场景中。

*本文系量子位获授权刊载,观点仅为原作者所有。


一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AR GPU 中兴
more
移动51亿“AI 盲盒”开奖,中兴拿走8亿
负债12.52亿启动预重整,华为中兴PCB供应商能否绝境“逆袭”?
芯报丨中兴通讯金篆数据库GoldenDB荣登中国分布式事务型数据库市场第一!
曙光、中兴、中国移动、华鲲振宇、瓦克化学、烽火通信、广电五舟等参会2025第四届中国先进热管理技术年会最新议程公布
听众注册|中国系统级封装大会:中兴微、环旭电子、天成先进、沛顿、AT&S、英特神斯、华大九天、KLA等SiP大咖嘉宾坐镇
听众注册抢票!中兴微、环旭电子、天成先进、沛顿、AT&S、英特神斯、华大九天、KLA等领衔共探AI时代先进封装!
1500GB!中兴5000mAh新品官宣:8月18日,正式上市!
中兴通讯对外发布《低空安防融合感知技术应用蓝皮书》,本文深度解读
50+知名品牌终端组团观展 广汽丰田、中兴通讯、TCL、五粮液为何都要参观2025国际CMF展?
提前抢票!芯和半导体、中兴微、环旭电子、光羽芯辰、日月光、天成先进、沛顿等领衔共探AI时代先进封装!
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号