
图1:Arm正把数据中心CPU作为下一阶段AI基础设施竞争重点。图片来源:DIGITIMES Asia / AFP
据DIGITIMES Asia报道,Arm在5月6日财报电话会上明显扩大其产品战略重心,将“Agentic AI(代理式AI)”与“Physical AI(实体AI)”列为未来十年的主要增长驱动力。与传统由人发起的一次性查询不同,代理式AI强调持续、自主的任务执行,这使CPU在数据搬运、内存管理、任务调度以及加速器协同中的角色重新上升。
为应对这一变化,Arm近期推出Arm AGI CPU,试图从过去以IP授权为主的商业模式,进一步延伸到面向AI数据中心的专用CPU平台。Arm首席执行官Rene Haas表示,随着代理式AI扩张,数据中心所需CPU能力将超过当前的4倍,到2030年相关CPU市场机会有望超过1000亿美元。
这并不意味着GPU或AI加速器的重要性下降,而是AI基础设施正在从“单一加速器主导”转向“CPU负责系统级调度、加速器负责高并行计算”的协同架构。对Arm而言,真正的机会在于进入超大规模云服务商自研芯片、AI加速器头节点和整机柜部署体系,成为新一代AI数据中心的通用计算底座。
20亿美元订单信号:AGI CPU从概念走向部署
Arm披露,Arm AGI CPU在2027财年与2028财年已获得超过20亿美元客户需求,这一规模较产品发布时所披露数字翻倍。该数字反映的并非单纯芯片销量,而是云服务商、ODM整机厂、AI芯片公司与软件服务商共同围绕Arm平台形成的部署需求。
Arm为客户提供多种导入方式,包括传统IP授权、计算子系统CSS,以及成品芯片产品。对大型客户而言,这种灵活模式可以降低迁移摩擦:有能力自研芯片的超大规模云服务商可以采用Arm架构打造定制硅;希望快速部署的客户则可借助Supermicro、Lenovo、ASRock等ODM伙伴提供的完整服务器机柜,缩短内部设计与验证周期。
其中,Meta被Arm定位为关键合作伙伴和共同开发者。Haas称,双方正在推进多代路线图,以支持面向超过30亿用户的“个人超级智能”应用。这个表述说明,Arm AGI CPU并非仅面向训练集群,而是更强调未来大规模推理、代理式任务和个性化AI服务的持续运行需求。
Arm AGI CPU生态路线图

表1:Arm AGI CPU生态与主要参与者整理
不要只看CPU与GPU数量比,核心密度和ASP更关键
Arm管理层还回应了市场对CPU与加速器比例的传统估算方式。过去投资者常用“几颗GPU对应几颗CPU”来判断CPU机会,但Haas认为,在AI服务器芯片受光罩版图尺寸限制、单颗芯片面积难以继续大幅扩张的背景下,更关键的指标正在转向核心密度、调度复杂度和平均销售价格。
以Arm AGI CPU为例,当前产品拥有136个核心,未来设计可能提升至256个甚至512个核心。也就是说,客户未必会在系统中额外看到更多独立CPU芯片,但单颗CPU的核心数、复杂度和价格可能显著上升。Arm判断,2030年超过1000亿美元的潜在市场规模,很大程度上将由高核心数CPU带来的ASP提升,以及大量独立批处理任务对CPU资源的消耗推动。
这一判断与AI应用从训练走向推理和代理式任务的产业趋势一致。训练阶段的算力焦点通常集中在GPU或专用加速器,而推理与代理式AI要求系统持续响应、调用工具、管理上下文、调度多种模型和数据源。CPU因此不再只是“配角”,而是AI系统运行效率、内存访问和任务编排的关键控制单元。
超大规模云厂商加速转向Arm定制硅
Arm生态在云服务商和超大规模客户中的渗透已进入关键阶段。Arm称,在顶级超大规模云厂商中,Arm Neoverse CSS与Arm架构计算已占据约50%的市场份额。Google近期推出Axion CPU,用于替代TPU加速器的x86主机处理器,Arm称其在功耗降低50%的同时,相比上一代x86方案实现80%的性能提升。
AWS持续推进Graviton,Microsoft则发展面向Azure工作负载的Cobalt CPU。即使是传统AI加速器龙头Nvidia,也在下一代Vera CPU中深度采用Arm架构,并将其定位于代理式AI与强化学习场景。这说明,Arm在数据中心的价值并非来自单一客户订单,而是来自云厂商自研芯片体系、AI加速器平台和软件生态的共同转向。
从供应链角度看,Arm的模式具有“生态放大效应”:上游有TSMC、Samsung等晶圆代工伙伴,中游有Synopsys、Cadence等EDA工具支持,下游则连接云服务、AI芯片、ODM服务器和软件服务商。Haas表示,Arm数据中心授权金收入同比已增长超过一倍,并预计这一趋势将延续。
产业观察:Arm正在争夺AI基础设施的“控制平面”
本轮AI基础设施竞争,表面上看是GPU、TPU和各类AI加速器的算力竞赛,但更深层的变化是数据中心控制平面的重构。随着模型服务从单次问答转向长期代理、从云端训练延伸到边缘和实体设备,系统需要更多CPU来协调内存、网络、存储、加速器和软件栈。
Arm的优势在于低功耗架构、成熟IP生态和云厂商定制硅基础;挑战则在于,x86生态仍拥有深厚的软件兼容性与企业级部署惯性。Arm AGI CPU若要真正放大商业价值,关键不只是推出高核心数CPU,而是能否持续降低软件迁移成本,并在整机柜、操作系统、数据库、网络服务和AI推理框架中形成足够完整的生态闭环。
因此,20亿美元AGI CPU订单更像是一个信号:在AI推理、代理式AI和实体AI推动下,数据中心CPU重新成为战略资源。未来竞争的焦点,将不只是“谁拥有最强加速器”,也包括“谁能以最低功耗和最高效率协调整个AI系统”。这正是Arm希望抓住的产业窗口。
原文信息
原文标题:Arm's $2 billion AGI CPU backlog signals strong hyperscaler demand
原文媒体:DIGITIMES Asia
