AI硬件生态竞争升级,芯片互联技术将成焦点

科技区角 2025-12-11 07:11
AI硬件生态竞争升级,芯片互联技术将成焦点图4
科技区角,看见更全面的科技世界

过去十年间,英伟达一直在机器学习与人工智能领域的高端计算机芯片市场占据主导地位。

凭借自主研发的 CUDA 软件以及快速迭代的技术创新,英伟达已然成为人工智能处理器的代名词,其市值在今年一度突破 5 万亿美元关口。2025 年 2 月至 10 月期间,英伟达公布的数据显示,其用于支撑人工智能发展的芯片、网络连接设备及相关硬件产品销售额达到 1478 亿美元。

尽管英伟达最新推出的旗舰级处理器产品「Grace Blackwell」系列目前供不应求,但该公司的市场主导地位正开始松动。随着行业向更专业化的硬件产品方向转型,英伟达面临的竞争不再局限于单一对手,而是迎来了多方位的挑战。

英伟达之所以能实现强劲的销售额与高额的利润率,核心驱动力在于产品的稀缺性,而这一稀缺性主要由产能限制所致。当前,高端芯片生产的主要瓶颈在于台积电先进的晶圆 - 基板 Chip-on-Wafer-on-Substrate(CoWoS)封装工艺产能有限。

而目前英伟达几乎包揽了台积电这部分有限的产能,但芯片供应的争夺正日趋激烈。作为该先进封装工艺的独家制造商,台积电计划到 2026 年将产能扩充至每月 10 万片晶圆。随着供应限制逐步缓解,谷歌、AMD等企业有望从中受益。

当前,行业正从大语言基础模型的实验阶段,转向以大规模、高性价比的推理运算为核心的发展阶段,英伟达因此面临巨大风险。

头部云服务提供商正逐步摆脱对英伟达 CUDA 生态系统的依赖。鉴于推理运算的运营成本现已超过模型训练成本,这些企业纷纷投入研发自研的专用芯片,以满足大规模推理场景的需求。

最大客户转身成为竞争对手

北美四大超大规模云计算服务商,谷歌、亚马逊云科技、微软以及Meta,是AI基础设施资本支出的主力军。它们正集体转向自研芯片的战略布局,目的就是为了确保自身的市场竞争力。

其中谷歌是率先布局自研人工智能芯片的企业,其推出的TPU系列成为了拓荒主力。最新一代产品「TPU v7 Ironwood」专门为推理运算优化了设计,搭载了大容量共享内存,支持最多 9216 颗芯片组成一个 “超级计算集群”,可有效解决大型混合专家模型(MoE)面临的内存瓶颈问题。

根据此前消息,Meta 将于2027年起,为其数据中心租赁谷歌的张TPU芯片,甚至可能启动采购程序。 此举将标志着谷歌的战略转型,使其正式跻身芯片商用量产供应商行列。部分机构预测,谷歌此举有望抢占英伟达最高 10% 的年收入份额,对应金额高达数十亿美元。

亚马逊聚焦模型训练与成本效益

亚马逊云科技(AWS)正着力提升产品的性价比,以此吸引那些寻求英伟达高价芯片替代品的企业客户。该公司声称,其自研的 「Trainium 」芯片针对中端人工智能负载场景进行优化,与图形处理器相比,可将模型训练成本降低最高 50%。

AWS也在扩充其基于3纳米工艺打造的自研CPU产品「Graviton5」。该处理器在通用任务处理上,性能较上一代产品提升最高达25%。Anthropic等合作伙伴已采用「Trainium2」芯片开展模型训练工作,充分彰显了AWS Trainium软件及Neuron软件开发工具包(SDK)的应用价值。

Meta与微软的战略转型

Meta则采取了专业化发展路径。其自研的Meta训练与推理加速器(MTIA)专为高吞吐量任务设计,例如为Facebook和Instagram的推荐系统提供算力支持。将这类任务迁移至自研芯片执行,能够让Meta将英伟达H100芯片预留出来,用于前沿人工智能研究工作。

微软的自研芯片项目则遭遇了挫折。其代号为 “布拉加”(Braga)的下一代Maia芯片,发布时间已推迟至2026 年,这使得微软陷入了不利境地。受此延期影响,微软不得不继续高价采购英伟达的Blackwell系列图形处理器,以满足OpenAI的算力需求。为了抵消成本压力,微软同时也在采用AMD的 MI300X 图形处理器,并由此成为AMD的核心客户之一。

新兴竞争者崛起与 Triton 编译器的影响

随着头部云厂商纷纷布局自研算力体系,AMD在更广阔的市场中,仍是英伟达的主要替代选择。AMD 的 MI300X 芯片配备了 192GB 的HBM3,容量远超英伟达的H100芯片,这一特性使其非常适用于大模型推理场景,同时能够有效降低成本。AMD 预计,其数据中心图形处理器的年销售额将突破数十亿美元,与英伟达展开直接竞争。

AMD 此前存在的软件生态短板,正通过OpenAI的Triton编译器得到弥补。开发者借助Triton编译器,无需精通英伟达的CUDA架构或AMD的ROCm平台,就能编写出可同时兼容这两家厂商硬件的高性能代码。

Triton 编译器提升了硬件的互通性,降低了企业脱离 CUDA 生态的迁移难度。这不仅能够帮助企业削减成本,也让它们更容易引入其他芯片供应商的产品。

国产厂商正不断缩小技术差距

在美国出口管制政策的推动下,中国已发展出一套平行且独立的人工智能芯片生态体系,这进一步加剧了英伟达面临的挑战。华为在这一国产算力基础设施建设中处于领军地位,通过创新的架构设计策略,弥补了芯片先进制造工艺上代差短板。

华为的主力芯片昇腾910C,已验证具备稳定可靠的性能。有报告显示,在部分推理任务中的性能基本已经能与H100持平。这一性能的实现,得益于其横向扩展(scale-out)的设计思路:通过UnifiedBus的新型光互联技术,将数千颗昇腾神经网络处理器(NPU)接入Atlas 950 SuperPoD等系统。这种高速互联网络弥补了芯片制造工艺上的差距,支撑起先进模型的训练工作。

根据此前消息,华为计划于2026年推出昇腾芯片的新版本,其中昇腾950PR 将于2026年第一季度发布,后续在第四季度还将推出内存容量更大的升级版 昇腾950DT。

本周,尽管美国批准了英伟达高性能 H200 芯片的对华出口,但H200芯片大概率将以有限规模进入中国市场,而该芯片是英伟达旗下性能仅次于顶级产品的人工智能芯片。

同时,国内在存储芯片领域同样在加速推进。长鑫存储已计划于2026年实现HBM3芯片的量产,将有助于缓解未来可能面临的存储相关制裁压力。

下轮竞争焦点:芯片互联技术

而下一轮行业的核心竞争或将聚焦于芯片互联技术。随着电互联技术逐渐触及性能瓶颈,光互联技术正被逐步应用于商用产品中。

从Marvell收购Celestial AI以及Lightmatter推出用于实现高速芯片互联的 3D 光子晶圆等动作均表明,到2026年,光互联技术将成为顶级人工智能芯片的标配。这一技术变革,将使博通Broadcom、Marvell等企业跻身核心供应商行列。

英伟达当前面临的挑战在于,如何在这个硬件日趋专业化的快速变革行业中,保持盈利并稳固市场份额。未来的人工智能计算领域,将不再是单一企业垄断的格局,而是由各类专业化系统通过先进技术实现互联的混合生态。

AI硬件生态竞争升级,芯片互联技术将成焦点图5

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 芯片
more
AI眼镜存储,交锋ePOP、先进封测
中国 AI 硬件团队,在 Kickstarter 上找到「第三条路」
真乐队退出,但 AI 冒牌却在 Spotify「拼好歌」冲榜
AI会消灭搜索吗?
新品 | H3C 推出桌面 AI 超算工作站;莲花 For Me 亮相
AI 时代的超级个体,正在小红书上寻找自己的绿洲
美国AI春晚,一盆凉水浇在Agent身上
存储芯片跃升AI时代战略性关键物资,时创意剖析战略布局与产品突围策略
比亚迪逐步放弃迪链,折叠屏iPhone或取消实体卡槽,OpenAI否认投广,SpaceX杀入运营商赛道,这就是今天的其他大新闻!
谷歌:全栈AI之王
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号