各类Al Server出货占比预测:2030年ASIC品类有望提升至近40%

全球半导体观察 2026-03-19 14:35

 

根据TrendForce集邦咨询最新AI Server研究,在大型云端服务供应商(CSP)加大自研芯片力道的情况下,NVIDIA(英伟达)在GTC 2026大会改为着重各领域的AI推理应用落地,有别于以往专注云端AI训练市场。通过推动GPU、CPU以及LPU等多元产品轴线分攻AI训练、AI推理需求,并借由Rack整合方案带动供应链成长。

 

各类Al Server出货占比预测:2030年ASIC品类有望提升至近40%图1

 

TrendForce集邦咨询表示,随着以Google(谷歌)、Amazon(亚马逊)等CSP为首的自研芯片态势扩大,预估ASIC AI Server占整体AI Server的出货比例将从2026年的27.8%,上升至2030年的近40%。

 

为巩固在AI市场的领导地位,NVIDIA采取的其中一项策略为积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用。本次在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜。

 

观察Rubin供应链进度,预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力NVIDIA于第三季前后陆续出货Rubin芯片。至于NVIDIA GB300、VR200 Rack系统出货进程,前者已于2025年第四季取代GB200成为主力,预估至2026年出货占比将达近80%,而VR200 Rack则约在2026年第三季度末可望逐步释放出货量能,后续发展仍需视ODM实际进度而定。

 

另外,AI从生成跨入代理模型时代,在生成Token的译码(Decode)阶段面临严重的延迟与存储器带宽瓶颈。为此,NVIDIA整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB。

 

然而,LPU本身的存储器容量无法容纳Vera Rubin等级的庞大参数与KV Cache。NVIDIA因此于本次GTC提出“解耦合推理(Disaggregated Inference)”架构,通过名为Dynamo的AI工厂作业系统,将推理流水线一分为二:处理代理型AI时,需进行大量数学运算并储存庞大KV Cache的Pre-fill、Attention运算阶段,交由具备极高吞吐量与巨量存储器的Vera Rubin执行。而受限于带宽且对延迟极度敏感的译码与Token生成阶段,则直接卸载至扩充了巨量存储器的LPU机柜上。

 

在供应链进度上,第三代Groq LP30由Samsung(三星)代工,已进入全面量产阶段,预计于2026年下半年正式出货,未来更规划在下一代Feynman架构中推出效能更高的LP40芯片。

 

  

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
more
CNAS | 检测和校准实验室认可技术培训即将开班,速报
认可中心传达学习全国认证认可检验检测工作会议精神
Anal Chim Acta:基于Au/Sn双金属纳米簇功能化针灸针微电极的分子印迹传感器高选择性检测异丙嗪
PromptAD:精准工业异常检测,1张正常样本即可超越现有SOTA
基于 FPGA 及神经网络SSD算法目标检测系统设计
《计测技术》推荐文章|上海理工大学冯吉军教授团队:石墨烯涂覆锥形光纤的快速生物检测研究
分享一款嵌入式系统内存泄漏检测利器:MTrace
一图读懂丨我国检验检测人才队伍全貌
智变与生态竞合,巡检测绘或是低空"第一桶金” | 低空年度专题 No.02
2025年中国AOI检测行业深度研究报告:市场需求预测、进入壁垒及投资风险
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号