
图片来源:法新社
思科系统公司(Cisco Systems)推出一款新型高容量路由系统与网络芯片,该产品旨在连接远距离处理人工智能工作负载的数据中心。当前企业功耗需求持续增长,迫使企业在不同区域分散计算业务,此款产品应运而生。
据新闻稿显示,思科 8223 路由系统由该公司新型 Silicon One P200 芯片驱动,可提供 51.2 太比特 / 秒(Tbps)的带宽。思科表示,该系统是目前市面上性能最强的固定以太网路由器。这款设备旨在助力数据中心实现 “跨域扩展”,即与数百英里外的其他站点互联,使分布式 AI 工作负载能像单一大型系统一样运行。
思科指出,传统的“纵向扩展” 与 “横向扩展” 方式正逐渐触及物理与能耗极限,这催生了对 “跨域扩展” 网络的需求 —— 此类网络需能高效且安全地连接多个站点。8223 系统专为处理 AI 训练所需的海量数据传输而设计,同时可保障性能稳定并控制能耗。支撑该路由器的新型 P200 芯片具备深度缓冲能力,可应对流量峰值;且支持可编程性,无需更换硬件即可适配新的网络协议。
该路由器还具备多项核心特性:采用后量子抗扰算法实现线速加密;配备 800G 相干光模块,支持最远 1000 公里的数据中心互联(DCI);且兼容开源 SONiC 系统,思科 IOS XR 系统支持预计将于后续推出。思科强调,该系统具备高的能效与空间效率,作为 3RU 规格(机架单位)的深度缓冲设备,能适配大规模 AI 应用环境。
主流云服务商已对该技术表达明确支持。微软表示,将在其数据中心与 AI 网络中持续扩大思科 Silicon One 的应用范围;阿里云则称 P200 芯片为其基础设施建设带来 “关键性进展”,助力其从传统机架式路由器向 P200 芯片驱动的设备集群转型。Lumen Technologies 也透露,正探索该新型系统提升其多云网络性能的具体路径。
此次产品发布凸显出 AI 基础设施需求对数据中心设计的重塑作用。在数据中心内部,英伟达等企业已实现数万个 AI 处理器的互联,使其具备单一系统的运行能力;而思科这款新型硬件则将该模式延伸至多数据中心场景,可有效将分散站点整合为统一的 AI 计算网络。
思科通用硬件部门执行副总裁Martin Lund表示,AI 功耗需求的持续攀升正推动数据中心向电力供应更充足的地区迁移。例如,甲骨文(Oracle)、OpenAI 已将业务拓展至得克萨斯州,Meta Platforms 则为获取充足电力容量转向路易斯安那州。“即便是规模最大的数据中心,其承载能力也已跟不上 AI 计算的增长速度” 。
原文标题:
Cisco launches new router and chip to link AI data centers across long distances
原文媒体:digitimes asia
芯启未来,智创生态
