全栈芯基建:Marvell重构AI芯片高速公路(一)从XPU定制到光互连的深度布局

半导体产业研究 2025-07-31 08:00
资讯配图

【编者按】

本篇选自Semi Version的长文深度解析Marvell如何以全栈定制战略重塑AI芯片基础设施。面对云巨头3270亿美金AI投资浪潮,传统GPU架构遭遇成本与能效瓶颈。Marvell凭借XPU+Attach双轨架构(18款定制芯片落地)、6.4Tbps硅光引擎及2nm级封装集成,构建从SRAM缓存优化到光互连的完整技术闭环。文章揭示其颠覆性创新:定制SRAM面积减半功耗降66%,448G SerDes突破带宽极限,更以XPU Attach组件90%增速卡位模块化AI生态——这不仅关乎单点技术突破,更是算力基础设施的范式革命。欢迎感兴趣的读者转发与关注!

Marvell引领AI芯片基础设施创新:从定制XPU到光互连的全栈转型
随着生成式AI、大语言模型(LLM)以及高带宽推理工作负载的爆发式增长,全球数据中心正在基础性技术变革的推动下经历一场深刻的转型。从处理器架构、内存访问到互连接口和先进封装,传统芯片设计的边界正在被重新定义。在此背景下,Marvell以“全栈定制平台”策略将自身定位在这场革命的核心,整合设计IP、先进工艺节点、封装和高速互连(SerDes / 光I/O),成为下一代AI基础设施的强大赋能者。
AI基础设施资本支出激增
根据Marvell引用的市场数据,美国四大云服务提供商——亚马逊、微软、谷歌和Meta——在AI基础设施上的资本支出自2023年以来以46%的复合年增长率增长,预计到2025年将达到3270亿美元。这股投资浪潮标志着从以通用CPU为中心的计算向以GPU、TPU和XPU为核心的加速架构的明显转变——后者正成为现代数据中心的新标准。
与此同时,OpenAI和xAI(模型优先)、特斯拉和苹果(应用优先)等新兴参与者,以及Humain和Stargate等主权AI先驱,正在快速开发定制ASIC和内存系统,共同促成了一个多元化、去中心化和协同优化的AI基础设施生态系统。
以定制XPU架构打破GPU垄断
在芯片设计和供应链成本不断上升的背景下——尤其是当英伟达GPU仍然昂贵且稀缺时——许多云提供商正转向内部ASIC设计,以提高每瓦性能并管理总体拥有成本(TCO)。Marvell的“XPU + XPU Attach”架构定义了两大定制芯片领域:
·定制XPU: 为AI推理、信号处理或通用计算任务量身定制的计算核心。
·定制XPU Attach: 支持组件,包括SerDes、D2D、纵向扩展(scale-up)互连架构、内存池控制器、安全和管理引擎。
该架构使Marvell能够提供完整的核心到互连解决方案,提供灵活的、客户定制的芯片设计。迄今为止,Marvell已在四大顶级云提供商中部署了12个插槽(3个XPU和9个Attach芯片),并在新兴超大规模厂商中额外部署了6个插槽,总计有18颗AI加速芯片投入生产——这证明了其平台策略获得了广泛的行业验证。
全栈技术优势:从硅片到系统
Marvell最强的竞争优势在于其能够围绕五大核心支柱,实现从硅片到系统的整合:
·系统架构: 协助客户定义数据流和并行计算模型,以优化SoC架构。
·设计IP: 提供高性能SerDes、SRAM、内存控制器和互连IP。
·硅片服务: 支持尖端工艺节点(如2nm、14Å、16Å),具备先进的逻辑设计能力。
·先进封装: 集成扇出型(fan-out)、2.5D、CoWoS和共封装光学(CPO),以提高系统密度和效率。
·制造物流: 连接晶圆级制造和系统级SMT组装,以实现精简的供应链。
在OFC 2025上,Marvell发布了全球首个448G电光SerDes,支持下一代光互连架构,如CPO、LPO和OIO。该技术为机架到机架(rack-to-rack)和集群到集群(pod-to-pod)部署中可扩展、低延迟且高能效的AI系统架构奠定了基础。
SRAM与HBM进步为异构集成铺平道路
内存架构仍然是AI芯片的关键瓶颈。在先进逻辑节点中,SRAM的面积和功耗占比日益显著。Marvell通过定制SRAM设计来解决这一问题,该设计可提供:
·相同带宽下,面积减少50%
·待机功耗降低66%
·相同面积下,带宽密度提升17倍
这些特性非常适用于L2/L3缓存、神经缓存和推理权重缓冲器,并已集成到领先的AI加速器设计中。
与此同时,Marvell正在开发与其基于CPO的光子封装平台紧密耦合的定制HBM系统。这种方法形成了一个为异构集成、片上网络(NoC)和纵向扩展互连架构优化的高性能内存基础,从而为数据中心实现低延迟、高吞吐量和可扩展的计算基础设施。
迈向以平台为中心的芯片设计
Marvell的2025年技术路线图勾勒了加速计算演进的三个关键方向:
1.从单一GPU主导转向可定制的XPU系统架构
2.从电气SerDes转向集成光互连
3.从标准SRAM转向定制内存和高密度封装集成
这些趋势反映了一个根本性的转变——从单点优化转向全栈系统级设计。只有在工艺技术、IP、封装和互连方面具备垂直整合能力,未来的AI基础设施才能满足埃米(Angstrom)时代所需的规模、效率和灵活性。
对Marvell而言,芯片不仅仅是功能单元——它们是未来数据中心的架构基石。
资讯配图
从愿景到现实:Marvell通过云优化硅片的转型
在2021年投资者日上,Marvell提出了一个变革性的愿景,其核心是向“云优化硅片时代”的战略转型。这标志着对传统“万事皆用x86 CPU”范式的背离,并预测未来的云架构将由异构计算和深度集成的定制硅片来定义。四年后,这一愿景已完全实现——使Marvell成为AI和高性能数据中心市场的战略领导者。
2021年提出的三阶段愿景
在那次演讲中,Marvell清晰地勾勒了数据中心基础设施的三阶段演进:
1.万事皆用x86软件: 传统模式,所有工作负载都在通用CPU上运行——导致系统灵活性有限且资源利用率不足。
2.异构计算: AI的兴起和数据爆炸推动了GPU、FPGA和DPU等专用加速器的采用,形成了异构计算环境。
3.云优化硅片: 最终阶段,云提供商和半导体公司共同开发定制硅片——如定制CPU、ML加速器和DPU——成为下一代数据中心的基础。
该模型预见了计算与数据的紧密耦合、加速器架构多样性的增加,以及SoC和先进封装技术的快速演进。
*原文媒体:Semi Version
*原文链接:https://tspasemiconductor.substack.com/p/from-custom-sram-to-optical-serdes
资讯配图

芯启未来,智创生态

湾芯展2025与您相约!

资讯配图

资讯配图

资讯配图

资讯配图
资讯配图
资讯配图

资讯配图


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI AR 芯片
more
这家AI Infra公司为什么做了一个“中国版的E2B”?|甲子光年
无限光年:可信AI金融的破冰者 | 数据猿专访
AI迁徙一代:跨越技术断层的中坚力量
AI答IMO难题坦承“不会”,OpenAI:这就是自我意识
独家|小米首款AI眼镜背后的故事:雷军亲自拍板立项,望三年内年出货量超五百万
中国在AI领域超越美国已是板上钉钉?吴恩达:美国无法保持领先
论坛直击 | WAIC 2025聚焦创新生态建设 上海国投产业发展论坛顺利举行
【AI】AI教父Hinton教授国内首次演讲PPT全文实录
AI玩具最大的敌人,是「七天无理由退货」
展商直击 | 维云科技亮相WAIC 2025,聚焦智算设备售后变革!
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号