来源:内容编译自tomshardware。
据报道,OpenAI 正与软银旗下的 Arm 合作开发一款新的 CPU,以配合其与博通(Broadcom)共同设计的定制 AI 加速器。这项合作最早由《The Information》披露,报道称 Arm 将为 OpenAI 设计一款服务器级 CPU,作为其下一代 AI 服务器机架系统的核心组件——这可能成为 Arm 迄今为止在数据中心市场迈出的最大一步。
报道中提到的芯片正是 OpenAI 自研的 AI 加速器,该项目于 10 月 13 日正式宣布,计划与博通合作推出定制 AI 加速器和服务器机架系统。这款专为推理任务设计的 SoC 预计将在 2026 年底投入生产,并在 2026 至 2029 年间扩展至约 10 吉瓦的算力规模。据称,这款由博通主导、台积电代工的加速器已经开发约 18 个月。
据《The Information》报道,Arm 此次的角色远不止提供架构授权。该公司近年来已开始自行设计和制造 CPU,而不仅仅是向合作伙伴授权内核。Arm 认为,与 OpenAI 的合作是其进一步扩大服务器业务版图的重要机会。知情人士透露,OpenAI 可能不仅会将这款 Arm 设计的 CPU 与博通芯片配合使用,还会与英伟达(Nvidia)和 AMD 的系统搭配。
根据报道,OpenAI 的 CPU 项目潜在营收可能高达数十亿美元,这对持有 Arm 近 90% 股份并以此为抵押大量举债的软银来说,将是一笔巨大的收益。软银还承诺将向 OpenAI 的数据中心建设投入数百亿美元,并从这家初创公司采购 AI 技术,以加速 Arm 自身的芯片研发周期。
加上此前与英伟达和 AMD 签订的合作协议,OpenAI 表示其芯片项目的总规划数据中心算力已达 26 吉瓦。如果这些计划顺利实施,OpenAI 的定制芯片部署总量(包括与英伟达和 AMD 的采购)预计将达到分析师估算的逾 1 万亿美元的建设与设备投资规模。
此外,OpenAI 与博通合作研发的这款芯片,还可能在与英伟达的价格谈判中为 OpenAI 带来更多筹码。当前,英伟达的 H100 以及即将推出的 Blackwell GPU 仍主导着 AI 训练市场。如果博通与台积电能够实现大规模量产,OpenAI 的推理芯片有望在一定程度上缓解 GPU 供应紧张的局面——这一直是过去一年 AI 实验室面临的主要瓶颈。
参考链接
https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip
点这里👆加关注,锁定更多原创内容
*免责声明:文章内容系作者个人观点,半导体芯闻转载仅为了传达一种不同的观点,不代表半导体芯闻对该观点赞同或支持,如果有任何异议,欢迎联系我们。
推荐阅读

喜欢我们的内容就点“在看”分享给小伙伴哦~