刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿

新智元 2025-09-10 18:33

资讯配图



  新智元报道  

编辑:元宇
【新智元导读】昨天,英伟达重磅发布了专为海量上下文AI打造的CUDA GPU——Rubin CPX,将大模型一次性推理带入「百万Token时代」。NVIDIA创始人兼CEO黄仁勋表示,Vera Rubin平台将再次推动AI计算的前沿,不仅带来下一代Rubin GPU,也将开创一个CPX的全新处理器类别。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

「百万Token怪兽」出世!

昨天,NVIDIA突放大招,推出了Rubin CPX,这是一款专为大规模上下文推理而设计的全新GPU。

资讯配图

它的性能,是Vera Rubin NVL144平台的2倍多,是基于Blackwell Ultra的GB300 NVL72机架式系统的7.5倍!

它具有单机架8 EFLOPS的NVFP4计算力、100TB高速内存与1.7 PB/s的内存带宽、128GB的高性价比GDDR7显存。

相比较NVIDIA GB300 NVL72系统,Rubin CPX带来了3倍的注意力机制处理能力。

性能巨兽,在变现能力上更是不容小觑。

每投入1亿美元,最高可以带来50亿美元的Token收入!


资讯配图
Rubin CPX
开创CPX全新处理器类别

Rubin CPX基于Rubin架构构建,是首款专为海量上下文AI打造的CUDA GPU,能够在同一时间推理跨越数百万个知识标记的模型。

可以说,Rubin CPX是专为破解AI「长上下文」瓶颈而生的「特种兵」。

的出现,为AI带来了百万Token级推理场景下的性能和效率的新突破。

依托于全新的NVIDIA Vera Rubin NVL144 CPX平台,Rubin CPX与NVIDIA Vera CPU和Rubin GPU紧密协同,可以支持多步推理、持久化记忆与长时程上下文,这让它在面对软件开发、视频生成、深度研究等领域的复杂任务时,更加游刃有余。

这也意味着在Rubin CPX的最新加持下,AI编码将从简单的代码生成工具,升级为能够理解并优化大规模软件项目的复杂系统。

同样,它还可以满足长视频与研究类应用领域,在数百万Token级别上保持持续一致性与记忆的需求。

这些需求,都在逼近当前基础设施的极限。

NVIDIA创始人兼CEO黄仁勋表示,Vera Rubin平台将再次推动AI计算的前沿,也将开创一个CPX的全新处理器类别。

「正如RTX颠覆了图形与物理AI一样,Rubin CPX是首个专为海量上下文AI打造的CUDA GPU,模型能够一次性跨越数百万个Token的知识进行推理。」


目前,Cursor、Runway和Magic等AI先锋企业,正在积极探索Rubin CPX在应用加速上的新可能。


资讯配图
30-50倍ROI
重写推理经济

Rubin CPX通过解耦式推理创新,可以企业带来30-50倍ROI,重写推理经济。

大模型的推理,主要分为上下文和生成两个阶段。

它们对于基础设施的要求,也存在着本质性的差异。

上下文阶段,以计算受限为主,需要高吞吐处理来摄取并分析海量输入数据,以产出第一个Token的输出结果。

而生成阶段,则以内存带宽受限为主,依赖快速的内存传输与高速互联(如NVLink)来维持逐Token的输出性能。

解耦式推理,可以让这两个阶段独立处理,从而更加针对性地优化算力与内存资源,提升吞吐,降低时延,增强整体资源的利用率。

资讯配图

但解耦式推理,也带来了新的复杂性层次,需要在低时延KV缓存传输、面向大模型感知的路由,以及高效内存管理之间进行精确协调。

这离不开NVIDIA Dynamo,它作为以上组件的编排层,发挥着关键作用。

资讯配图

Rubin CPX是专为大语言模型(尤其是百万Token上下文)推理设计的「专用加速器」。

Rubin CPX与NVIDIA Vera CPU ,以及用于生成阶段处理的Rubin GPU协同工作,共同形成了面对长上下文场景的完整的高性能解耦式服务方案。

CPX的推出,标志着解耦式推理基础设施的最新进化,也树立了推理经济的新标杆。

在规模化场景下,NVIDIA Vera Rubin NVL144 CPX平台,可带来30–50x的投资回报(ROI)。

这意味着1亿美元的资本性支出(CAPEX),最高可转化为50亿美元的收入。


资讯配图
百万Token怪兽
重新定义下一代AI应用

Vera Rubin NVL144 CPX平台,重新定义了企业构建下一代生成式AI应用的可能性。

资讯配图

NVIDIA Vera Rubin NVL144 CPX机架与托盘,配备Rubin上下文GPU(Rubin CPX)、Rubin GPU与 Vera CPU

Rubin CPX与NVIDIA Vera CPU、Rubin GPU,共同集成在全新的NVIDIA Vera Rubin NVL144 CPX平台内。

NVIDIA Vera Rubin NVL144 CPX平台,采用最新GPU架构,具备极高算力与能效比,可以基于MGX架构实现机架级部署。

1.算力跃升

NVIDIA MGX机架式系统,单机架集成了144块Rubin CPX GPU、144 块Rubin GPU与36颗Vera CPU,可以提供8 EFLOPS的NVFP4计算力,并在单机架内配备100TB高速内存与1.7 PB/s的内存带宽。

2.长序列的高效处理优化

Rubin CPX针对长序列的高效处理进行了优化,是软件应用开发与高清(HD)视频生成等高价值推理用例的关键。

3.显存升级

单个Rubin CPX GPU可以提供高达30 petaflops的NVFP4计算能力,它配备128GB的高性价比GDDR7显存,以加速最苛刻的上下文类工作负载。

4.注意力机制加速

相比NVIDIA GB300 NVL72系统,Rubin CPX带来了3倍的注意力机制处理能力,显著提高模型处理更长上下文序列的能力且不降速。

5.多种形态配置

Rubin CPX提供多种形态配置,包括 Vera Rubin NVL144 CPX,并可与NVIDIA Quantum-X800 InfiniBand横向扩展计算网络。

也可以搭配采用NVIDIA Spectrum-XGS以太网技术与NVIDIA ConnectX®-9 SuperNICs™的NVIDIA Spectrum-X™以太网网络平台结合使用,以实现大规模部署。


资讯配图
Rubin CPX
拥抱NVIDIA全栈AI生态

在生态上,Rubin CPX将得到完整的NVIDIA AI堆栈支持,包括:

NVIDIA Rubin CPX预计将于2026年底可用。

它的推出将为全球开发者与创作者解锁更强大的能力,重新定义企业构建下一代生成式AI应用的可能性。

参考资料:
https://developer.nvidia.com/blog/nvidia-rubin-cpx-accelerates-inference-performance-and-efficiency-for-1m-token-context-workloads/%20
https://nvidianews.nvidia.com/news/nvidia-unveils-rubin-cpx-a-new-class-of-gpu-designed-for-massive-context-inference?ncid=so-twit-653111

资讯配图

资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
GPU 英伟达
more
博通百亿芯片大单,拉响GPU警报
美国,再次延长对华GPU关税豁免!
H100算力按“桶”卖,GPU算力期货终局推演:中心化训练vs碎片化推理,谁是赢家?
阿里巴巴寒武纪GPU订单,追加至15万片!
贵到离谱!英伟达下一代中国特供GPU价格曝光
算力尽头是电力?一文拆解AIDC“狂飙”的底层密码——从 GPU 到核聚变,你的下一度电用在哪里?
沐曦:与H20不构成直接竞争,曦云C500 GPU加速上量
94%!NVIDIA创下GPU市场新纪录
两家存储厂商相继增资GPU企业!
ImaginationGPU全力支持RISC-V
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号