博通(Broadcom)发布了其最新的 AI fabric 路由芯片 Jericho4,该芯片旨在连接地理上分散的数据中心,同时彰显了该公司的理念:以太网将为下一代大规模人工智能和机器学习系统提供动力。这一消息是在台北举办的2025 年开放计算项目(OCP)亚太峰会上宣布的。博通高级副总裁兼总经理Ram Velaga在会上阐述了一套三层级 AI 基础设施扩展方案 —— 从机架内通信到全球数据中心集群。“人工智能目前的发展还只达到其潜力的 1%,” Velaga在台上表示,他认为以太网的普及性、成本效益和开放性使其成为跨整个技术栈扩展 AI 工作负载的最佳选择。“构建大型分布式计算系统的最佳方式,就是基于以太网来实现。” 图片来源: Joseph ChenJericho4:连接 100 公里外的数据中心此次台北发布的核心是Jericho4—— 一款专为数据中心间连接设计的 3 纳米多芯片 AI fabric 路由芯片。它支持线速全加密、超大缓存和高带宽内存(HBM),可实现相隔 100 多公里的设施之间 AI 工作负载的迁移。随着 AI 模型规模不断扩大,博通认为有必要将多个 50-60 兆瓦的数据中心连接起来,形成统一的计算集群。Jericho4 填补了这一空白 —— 与该公司专注于数据中心内交换的 Tomahawk 产品线形成了差异化。使用以太网扩展AI:从机架到区域Velaga的演讲还重申了博通更广泛的 AI 以太网战略:机架内(Scale-Up Ethernet,向上扩展以太网):博通的向上扩展以太网(SUE)规范支持机架内或相邻几个机架中 XPU(GPU、TPU 等)与 HBM 之间的低延迟通信。该公司的 Tomahawk Ultra 交换机实现了 XPU 到 XPU 低于 400 纳秒的延迟(其中交换机内部延迟约 250 纳秒),有助于将计算域扩展到数百甚至数千个 XPU。跨数据中心(Scale-Out Ethernet,向外扩展以太网):针对单个数据中心内的更大集群,博通推出了 Tomahawk 6,其带宽可达 100 太比特 / 秒。维拉加表示,它能减少 67% 的光学组件、降低功耗,并简化 12.8 万个 GPU 集群等部署的网络复杂度。该公司的核心主张是,以太网作为一种可扩展、厂商中立的技术,可替代专有AI 互连方案。博通持续投入开放标准,将 SUE 规范贡献给开放计算项目(OCP)社区,以推动硬件和软件层面的多厂商创新。 图片来源: Joseph Chen*原文来源:Joseph Chen, DIGITIMES Asia, TaipeiTuesday 5 August 2025*原文链接:Broadcom unveils Jericho4 at OCP Taipei, pushes Ethernet as backbone of next-gen AI infrastructure芯启未来,智创生态湾芯展2025与您相约!