电子发烧友网报道(文/莫婷婷)在人工智能大模型训练与推理成本高企、算力需求呈指数级增长的背景下,OpenAI与Broadcom(博通)于10月正式宣布达成一项史无前例的战略合作:共同部署总规模达10吉瓦(GW)的定制AI芯片与网络系统机架。这一合作成为博通在AI时代端到端的技术实力,标志着其技术能力已实现从底层研发到大规模工程落地的完整闭环。博通技术底座赋能,成OpenAI定制AI集群的隐形引擎根据官方公告,此次合作的核心内容是:由OpenAI负责AI加速器及整机系统架构的设计,博通负责部署人工智能加速器和网络系统机架,并提供全套以太网网络解决方案。合作方向聚焦于构建面向下一代AI大模型的高性能、高能效计算集群。整套系统将完全基于博通的以太网技术栈构建,这些机架包括高带宽交换芯片、PCIe互连、光学连接及共封装光学(CPO)等端到端互联方案。此举旨在将OpenAI在训练GPT系列、o1、Sora等前沿模型过程中积累的软硬件协同优化经验,直接固化到定制硬件中,从而提升推理效率、降低单位算力成本。在进展方面,双方已签署合作意向书,并计划从2026年下半年开始分阶段部署AI加速器机架,预计到2029年底前完成10吉瓦算力的建设。这些系统将部署于OpenAI自有设施及合作数据中心,以支撑其日益增长的全球用户需求。OpenAI在官方通告中指出,OpenAI周活跃用户已超8亿。此次合作不仅强化了OpenAI在算力基础设施上的自主可控能力,也将充分用上博通在网络芯片领域的深厚技术积累。作为网络芯片龙头,博通也借此合作完成从传统网络芯片供应商向AI全栈基础设施核心伙伴的战略升级,在超大规模AI集群中打下关键地位。根据2025财年第三季度财报,博通单季营收达159.5亿美元,同比增长22%;其中AI芯片收入高达52亿美元,同比激增63%,占总营收的三分之一。这一增长的核心驱动力,正是其面向超大规模数据中心客户提供定制化AI加速器(XPU/ASIC)业务。博通的技术优势首先体现在其领先的以太网互连架构上。在AI集群规模不断扩大的趋势下,网络已成为性能瓶颈。博通持续迭代交换芯片,就在近期公司推出了业界领先的Tomahawk 6交换芯片,提供高达102.4Tbps的带宽,并支持512个200Gbps SerDes通道。作为新一代CPO 以太网交换芯片,Tomahawk 6带宽容量达到102.4Tbps,是业内同类芯片的2倍,功耗降低约 70%,每 1.6Tbps 端口功耗从 30W 降至 9W,满足AI训练与推理对高带宽、低延迟的严苛要求。此外,在今年8月,博通还推出专为跨数据中心的scale-across场景设计的Jericho-4路由器芯片(51.2Tbps),能够安全连接地理上分散的数据中心内超过100万个各类处理器(XPUs),进一步强化了博通在大规模AI网络中的技术壁垒。此外,博通还在推进新型互联技术。此前,博通提出新型互连框架SUE(Scale Up Ethernet),旨在将以太网的优势引入AI系统内部的Scale Up,实现XPU集群高速、可靠、开放,再一次守住AI 时代的交换器市场主导权。与此同时,博通在软件层面的整合也初见成效。自收购VMware后,公司成功将其转型为AI优化的私有云平台——VMware Cloud Foundation(VCF)9.0。本季度90%的头部企业客户已采购许可。这一软件能力与博通的硬件形成协同效应,使其不仅能提供芯片,还能交付完整的AI基础设施解决方案。由此可以看出,博通与OpenAI的合作并非仓促入局,而是建立在长期技术积累与战略前瞻布局的基础之上。业内消息指出,OpenAI与博通的合作早在2024年之前就开始,已有18个月,双方共同设计了面向推理优化的定制芯片产线。自研ASIC成降本增效关键为了推进AI基础建设,OpenAI不仅与博通展开合作,也与英伟达、甲骨文、AMD签下合作协议,根据公开的资料,OpenAI与上述三家企业的合作大约达到33 吉瓦算力。OpenAI创始人山姆・奥特曼(Sam Altman)表示,10 吉瓦只是一个开始。尽管它比今天的世界要多得多,但我们期望以非常低的价格快速交付非常高质量的情报——世界将以超快的速度吸收它,并找到令人难以置信的新事物来使用它。业内曾有声音指出,博通的入局将替代或者瓜分英伟达在OpenAI的大部分订单,形成竞争关系。事实上,在此次多方合作中,英伟达将仍然负责前沿研究和高峰算力需求,而Broadcom的定制芯片负责大规模推理场景等,例如为OpenAI专门设计的推理优化ASIC等。从OpenAI近期的动作来看,在这方面,Altman采取了“多供应商并行”的策略。一方面可以分散对单一技术路线或厂商的依赖,提升供应链安全;另一方面,OpenAI也通过引入定制化芯片,OpenAI能够针对训练、推理等不同应用场景实现更高效的算力分配与能效比优化。尤其在推理成本日益增长的背景下,专用芯片在延迟、功耗和单位成本上具备不可否认的优势。博通半导体解决方案事业部总裁Charlie Kawwas博士表示,定制加速器与基于标准的以太网纵向扩展和横向扩展网络解决方案完美结合,可提供成本和性能优化的下一代人工智能基础设施。业内人士认为,OpenAI与博通的合作将带动定制ASIC在AI芯片市场的加速普及与技术演进,推动通用GPU转向针对特定工作负载优化的专用芯片路径,重塑AI硬件生态格局。成本是其推动力之一。相比通用GPU,定制推理芯片可带来高达3倍的成本优势。OpenAI高管提到,1吉瓦数据中心的成本约为500亿美元,芯片成本约占350亿美元(基于英伟达定价估计),而自研ASIC能够优化巨额基础设施投入,也能做到Sam Altman所强调的“巨大效率提升”,即更强性能、更快迭代与更低模型成本。不可否认,OpenAI这一超级算力扩张计划不仅重塑数据中心的规模与架构,也为整个AI产业链带来巨大机遇。我们关注到,在数据中心网络与AI训练集群领域,多家芯片企业正加速布局。例如Marvell凭借其在高速互连、定制ASIC和数据中心PHY技术方面的技术积累,或将在本轮AI芯片浪潮中迎来增长。声明:本文由电子发烧友原创,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。