henry 发自 凹非寺
量子位 | 公众号 QbitAI
你的下一块AI芯片,何必非得是英伟达和AMD。
高通宣布推出两款全新的AI芯片——AI200和AI250,正式进军数据中心市场。
消息一出,高通股价一度飙升超20%,创自2019年以来的最大单日涨幅。

巧的是,高通上一款数据中心产品AI 100也是2019年发布,但那时更多面向端侧/轻量级推理。
时隔六年,“手机芯片的神”终于撕掉了“端侧标签”,正式向大型数据中心市场发起冲击。
这回,真要从英伟达嘴里抢肉吃了。
从端侧转向云端
高通此次推出的AI200与AI250,本质上是面向数据中心的机架级推理加速器与整机架系统,聚焦AI模型的推理阶段,主打行业最低的总拥有成本(TCO)、更高的能效与更强的内存处理能力。
(注:总拥有成本指的是购买、部署和运营某项设备或系统的全周期成本)

AI200预计2026年商用,既可作为独立芯片/卡模块出售,也可作为由高通交付的整机架服务器系统提供。
基于AI200的机架系统支持多颗芯片协同工作,每张加速卡支持768GB LPDDR内存,面向大语言模型和多模态推理场景。
AI250计划2027年推出,其差异化亮点是引入近存计算(near-memory computing)的全新内存架构。
高通声称这一架构能带来超过10倍的有效内存带宽提升并显著降低功耗,从而更好支持“解耦式AI推理(disaggregated inference)”等大规模推理部署模式。
两种机架方案均支持直液冷散热、PCIe与以太网扩展、机密计算(confidential computing)等企业级功能,且面向高密度机架场景(160kW级别)。
除了硬件,高通同时在推进面向超大规模推理的端到端软件栈,承诺支持主流框架与工具链(如PyTorch/ONNX、vLLM、LangChain、Hugging Face等),并提供一键部署与运维工具,以降低客户TCO并加速模型在生产环境的落地。
此外,高通还表示,未来将以每年一代的节奏推进数据中心产品路线图,持续提升AI推理性能、能效表现以及整体TCO竞争力。
从安卓机到数据中心,早有布局
虽然大家平时印象里高通都是手机芯片,但其实早在2019年,高通就已经开始布局数据中心芯片了。
只不过那会儿主要还是瞄准物联网、5G这些端侧场景。
这次的爆发,一方面得益于高通在手机芯片的技术积累——AI200/AI250的核心计算单元就源自Hexagon神经处理单元(NPU)。
另一方面,高通近年来不断改进Hexagon NPU,不仅加入标量、矢量、张量加速器,支持INT2、INT4、INT8、INT16、FP8、FP16等多种数据格式,还搞了微块推理、64位内存寻址、虚拟化和生成式AI模型加密。
正如高通数据中心与边缘计算业务总经理Durga Malladi说:
我们先在别的领域证明了自己,等实力够了,再进数据中心,顺理成章。
除开高通自己的努力,数据中心本身就是一块肥肉。
据麦肯锡预测,到2030年,全球数据中心投资将达到6.7万亿美元。
虽然目前的市场格局,仍是英伟达吃肉(占90%以上份额)、AMD吃面,其余人喝汤,但巨头们也都在找替代方案——
比如,OpenAI这个月宣布要买AMD芯片,可能还要入股。
谷歌、亚马逊、微软也都在搞自家AI加速芯片。
高通的入局,无疑让市场更热闹了。
截至目前,高通已经拿下沙特 AI 初创公司Humain的订单,该公司计划从2026年起部署基于AI200/AI250的机架级算力系统,总功率高达200兆瓦。

让我们进一步期待高通后续的动作吧!
参考链接:
[1]https://www.bloomberg.com/news/articles/2025-10-27/qualcomm-unveils-chip-to-rival-nvidia-in-ai-accelerator-market
[2]https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent