最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的

量子位 2026-01-01 12:15
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

为什么AI算力霸主永远是英伟达?

不算不知道,一算吓一跳:在英伟达平台每花一美元,获得的性能是AMD的15倍

尽管英伟达卖的更贵,但只要买齐一套,就更省钱。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图1

来自Signal65的一份最新详尽报告揭示了这个现实,一定条件下生成同样数量的token,英伟达的成本只有AMD的十五分之一。

这份报告基于SemiAnalysis Inference MAX的公开基准测试数据,时间跨度从2025年10月到12月,覆盖了从密集模型到前沿MoE推理模型的全场景测试。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图2

黄仁勋的“买的越多,省的越多”原来是真的。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图3

MoE时代:8卡系统撞上Scaling天花板

AI模型正在经历一场架构革命,打开Artificial Analysis排行榜就会发现,智能度排名前十的开源模型清一色都是MoE(Mixture of Experts,专家混合)推理模型。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图4

另一项来自OpenRouter的数据显示,超过50%的token流量正在被路由到推理模型上。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图5

MoE架构的核心思路是把模型参数拆分成多个专门化的“专家”子网络,每个token只激活其中一小部分。

以经典的DeepSeek-R1为例,它拥有6710亿总参数,但每个token只激活370亿——这让它能以更低的计算成本提供前沿级别的智能。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图6

问题随之而来。当专家分布在多块GPU上时,GPU之间的通信延迟会导致计算单元空闲等待数据,这些空闲时间直接转化为服务商的成本。

报告指出,无论是英伟达B200还是AMD MI355X,所有8卡系统在超出单节点规模后都会撞上“扩展天花板”(scaling ceiling)。

英伟达GB200 NVL72的解法是把72块GPU通过NVLink连接成一个单一域,提供130 TB/s的互联带宽。

在软件层面,整个系统就像一块巨型GPU一样运作。配合英伟达Dynamo推理框架的分离式预填充-解码调度和动态KV缓存路由,这套架构能够有效突破8卡系统的通信瓶颈。

模型越复杂,英伟达的优势越明显

报告测试了三类典型模型:模型越复杂,英伟达的优势越明显。

在密集模型Llama 3.3 70B上,英伟达B200对比AMD MI355X的领先幅度相对温和。

在基线交互性(30 tokens/sec/user)下,B200的性能约为MI355X的1.8倍;当交互性要求提升到110 tokens/sec/user时,这一差距扩大到6倍以上。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图7

中等规模的MoE模型GPT-OSS-120B开始让差距变得更加显著。

这款OpenAI开源模型拥有1170亿总参数,但每个token只激活约51亿参数。在2025年12月的测试数据中,100 tokens/sec/user交互性下B200的性能接近MI355X的3倍。

在更符合推理模型需求的250 tokens/sec/user条件下,差距扩大到6.6倍。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图8

两个平台的绝对性能相比10月都有显著提升,英伟达的峰值吞吐从约7000 tokens/sec跃升至14000以上,AMD则从约6000提升到8500左右,但相对差距反而拉大了。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图9

真正的分水岭出现在前沿推理模型DeepSeek-R1上。

这款模型集MoE路由、大参数规模和高强度推理生成于一身,对基础设施的要求极为苛刻。

测试结果显示:在25 tokens/sec/user交互性下,GB200 NVL72的每GPU性能是H200的10倍、MI325X的16倍;在60 tokens/sec/user下,相比H200的优势扩大到24倍,相比MI355X达到11.5倍;在75 tokens/sec/user下,GB200 NVL72的性能是B200单节点配置的6.5倍,是MI355X的28倍。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图10

更关键的是,GB200 NVL72能够达到竞争平台根本无法企及的水平,在28卡配置下可以输出超过275 tokens/sec/user,而MI355X在相当吞吐水平下的峰值只有75 tokens/sec/user。

Token经济学:贵了1.86倍,便宜了15倍

直觉上,性能更强的平台应该更贵。事实也确实如此:根据Oracle Cloud的公开定价,GB200 NVL72的每GPU每小时价格为16美元,MI355X为8.60美元,前者是后者的1.86倍。

如果参照CoreWeave的定价,GB200 NVL72相比上一代H200的价格也贵了约1.67倍。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图11

但报告的计算揭示了一个反直觉的结论:

在25 tokens/sec/user交互性下,GB200 NVL72的性能优势为5.85倍,除以1.86倍的价格溢价,每美元性能仍是MI355X的3.1倍。

在75 tokens/sec/user交互性下,28倍的性能优势除以1.86倍的价格,每美元性能达到MI355X的15倍,这意味着生成同等数量的token,英伟达平台的成本只有AMD的十五分之一。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图12

与上一代产品的对比同样惊人。

报告估算在DeepSeek-R1的典型工作负载下,GB200 NVL72相比H200的性能提升约20倍。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图13

而GB200 NVL72价格仅上涨1.67倍,换算下来每美元性能提升约12倍,单token成本降至H200的十二分之一。

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图14

MoE推理让网络成为推理成本的瓶颈,而机柜级的GB200 NVL72恰好解决了这个问题。价值的衡量标准正在从单纯的算力转向“每美元能产出多少智能”。

报告在结论中指出,AMD的竞争力并未被完全否定——在密集模型和容量驱动的场景下,MI325X和MI355X仍有用武之地。

AMD的机柜级解决方案Helios也在开发中,可能在未来12个月内缩小差距。

但就当前的前沿推理模型而言,从芯片到互联到软件的端到端平台设计,已经成为成本效益的决定性因素。

参考链接:
[1]https://signal65.com/research/ai/from-dense-to-mixture-of-experts-the-new-economics-of-ai-inference/

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —


量子位智库2025年度「AI 100」榜单正式开启招募!

和我们一起在日新月异的AI产品市场中厘清背后脉络,把握未来动向,找到真正代表中国AI实力的巅峰力量 🔽

最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的图15

一键关注 👇 点亮星标
科技前沿进展每日见

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AMD 英伟达
more
AMD苏姿丰:没有万能芯片
供货预警!英特尔、AMD告知:CPU交付最长或达6个月
李飞飞World Labs获10亿美元融资,英伟达AMD罕见联手押注“空间智能”
高通发布新款 PC 芯片,直面英特尔、AMD
Meta拟采购高达百亿美元AMD芯片,加速构建“个人超级智能”基础设施
AMD罕见“卖身”,1美分锁定两大AI巨头
AMD高管质疑Intel Panther Lake竞争力,称其定价高昂且定位失焦
NVIDIA独显市占率飙升至94%,AMD份额跌至历史冰点
锐龙AI 400系列提前开售,AMD抢跑Intel Panther Lake争夺AI PC先机
AMD披露RDNA 4m核显新变体,为Zen 6 APU铺路
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号