AI芯片竞争,再起波澜

半导体芯闻 2025-12-16 18:52

过去十年,NVIDIA 一直主导着用于机器学习/人工智能领域的高性能计算机芯片市场。

 

英伟达凭借其专有的CUDA软件和快速创新,已成为人工智能处理器的代名词。该公司市值预计将在2025年短暂达到5万亿美元。2025年2月至10月期间,支持人工智能发展的硬件(包括半导体芯片和网络连接)的收入达到1478亿美元。

 

英伟达最新、最强大的处理器“Grace Blackwell”系列一经推出便迅速售罄,但其市场主导地位正在逐渐消退。随着行业向更加专业化的硬件方向发展,英伟达如今面临的挑战不再仅仅局限于与一家公司竞争,而是来自多个方面。

 

NVIDIA 的强劲销售和高利润率主要得益于有限的产量稀缺,高端芯片的主要瓶颈在于台积电在芯片封装(CoWoS)先进封装方面的产能有限。

 

英伟达正在利用大部分有限的产能,但半导体供应的竞争正在加剧:作为唯一制造商的台积电计划到 2026 年将其产能扩大到每月 10 万片晶圆。随着供应限制的缓解,谷歌和 AMD 等公司将从中受益。

 

随着业界从试验大规模基础模型转向优先发展大规模、高性价比的推理,NVIDIA 面临着巨大的风险。

 

主要的云服务提供商正在摆脱对英伟达 CUDA 生态系统的依赖,并投资开发自己的芯片用于高容量推理,因为在高容量推理中,运营成本超过了训练成本。

 

 

 

英伟达的主要客户变成了“竞争对手”

 

 

 

北美四大超大规模数据中心运营商——谷歌、亚马逊网络服务、微软和 Meta——是该领域最大的资本支出者之一,它们集体转向定制芯片是一项旨在确保竞争优势的战略举措。

 

Alphabet旗下的谷歌已开始向定制人工智能芯片转型,其首款产品是张量处理单元(TPU)。最新版本——第七代TPU Ironwood——针对推理进行了优化。它拥有大量的共享内存,单个SuperPOD最多可连接9216个芯片,从而解决了大型混合专家(MoE)模型的内存限制问题。

 

AI芯片竞争,再起波澜图1

 

Meta Platforms公司可能从2027年开始租赁或采购谷歌的TPU芯片用于其数据中心,这标志着谷歌正转型成为一家商业芯片供应商。据估计,谷歌可能会占据英伟达年总收入的10%,这笔收入可能高达数十亿美元。

 

亚马逊网络服务 (AWS) 正致力于进一步提升性价比,以吸引那些寻求英伟达高价芯片替代方案的企业。AWS 声称,其“Trainium”芯片与 GPU 相比,可将训练成本降低高达 50%,并且主要面向中等规模的 AI 工作负载。

 

AWS 还在扩展其 Graviton5 定制芯片,该芯片采用 3nm 工艺,据称在通用任务中比上一代产品性能提升高达 25%。Anthropic 等合作伙伴正在使用 Trainium2 进行模型训练,这充分展现了 AWS 的 Trainium 软件和 Neuron 软件开发工具包 (SDK) 的价值。

 

Meta 采用了一种独特的方法:其 Meta 训练和推理加速器 (MTIA) 专为 Facebook 和 Instagram 等平台的推荐系统等高容量任务而设计。通过将这些任务卸载到其定制芯片上,该公司可以将 Nvidia H100 芯片用于更高级的 AI 研究。

 

微软的定制芯片项目遭遇挫折。该公司下一代芯片Maia(代号Braga)的发布已被推迟至2026年,这使其处境艰难。此次延期意味着微软必须继续采购昂贵的英伟达Blackwell GPU来满足OpenAI的计算需求。为了降低成本,微软也使用了AMD的Instinct MI300X GPU,并且是AMD最大的客户之一。

 

 

 

AMD的目标是成为“NVIDIA的替代选择”

 

 

 

随着各大云厂商纷纷开发自有系统,AMD 继续巩固其在众多市场中与 NVIDIA 抗衡的关键地位。AMD 的 MI300X 芯片配备 192GB 的 HBM3 显存,远超 NVIDIA 的 H100,使其成为降低大规模模型推理成本的理想之选。AMD 预计其数据中心 GPU 的年销售额将达到数十亿美元,从而与 NVIDIA 展开直接竞争。

 

AMD 之前的软件限制现在已通过 OpenAI 的 Triton 编译器得到解决,该编译器允许开发人员编写与 NVIDIA 和 AMD 硬件兼容的高性能代码,而无需深入了解 CUDA 或 AMD 的 ROCm。

 

Triton 提高了硬件兼容性,简化了从 CUDA 的迁移,降低了成本,使制造商更容易采用其他供应商。

 

 

 

中国力求实现半导体产业的“独立”

 

 

 

由于美国的出口限制,中国正努力在国内构建一个平行且独立的生态系统,这加剧了英伟达面临的挑战。华为引领着中国国内的这一基础设施建设,并通过替代架构策略弥补了极紫外(EUV)光刻设备获取渠道有限的不足。

 

华为的尖端芯片Ascend 910C由国内企业制造,可靠性极高。据报道,其训练性能可达NVIDIA H100的60-80%,在某些推理任务中也能与H100相媲美。

 

这种高性能得益于“横向扩展”设计:在诸如 Atlas 950 SuperPoD 之类的系统中,数千个 Ascend 神经处理单元 (NPU) 通过一种名为统一总线的新型光纤链路连接。这种高速网络弥补了产品质量的不足,并支持高级模型训练。

 

但发展这种独立的计算能力是有代价的:中芯国际的昇腾910C芯片良率只有30-40%,远低于行业标准,但中国政府似乎愿意为了战略目的而接受这些损失。

 

据报道,华为计划在 2026 年推出新版本的 Ascend 芯片,其中 Ascend 950PR 预计将于第一季度发布,而其高端版本 Ascend 950DT 预计将于第四季度发布。

 

然而,这一悖论在2025年12月变得更加尖锐。当时,尽管美国总统特朗普批准出口英伟达高性能H200芯片并表示愿意放宽限制,中国政府却宣布计划自行实施严格的准入限制。负责监管中国半导体自主研发的监管机构正在考虑如何限制对H200(英伟达第二代人工智能芯片)的获取。

 

中国也在推进存储芯片制造,这将有助于减轻未来与存储相关的制裁的影响。

 

 

 

英伟达开始投资多元化市场

 

 

 

英伟达承认,由于台积电产能受限,公司难以维持高利润率,因此正在投资新市场,包括诺基亚等电信基础设施制造商。

 

尽管面临这些挑战,预计英伟达将在2026年之前保持其在高利润、高性能模型训练领域的领先地位。然而,更广泛的大规模推理市场可能由主要云提供商的定制芯片主导。

 

下一个主要的竞争挑战将出现在半导体芯片连接领域。随着电气连接的局限性日益凸显,商用产品开始采用光纤连接。Marvell 收购 Celestial AI,以及 Lightmatter 等公司提供用于更快芯片连接的 3D 光子晶圆,都表明到 2026 年,光纤连接将成为人工智能芯片的主要标准。这一转变将使 Broadcom 和 Marvell 等公司成为关键供应商。

 

英伟达如今面临的挑战是如何在快速向专用硬件转型的行业中保持盈利能力并巩固市场份额。人工智能计算的未来将不再由任何一家公司垄断,而是由专业化、高度互联的系统融合而成。

(来源:美股研究社)

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 芯片
more
海光CPU创始人唐志敏:软件才是国产芯片公司的「命根子」丨GAIR 2025
一个芯片65,000个电极 | 新一代脑机接口:大脑上的硅芯片
当算力走到单芯片尽头,这家中国公司给出了另一条路
芯片网上线DECAP半导体分析服务,面向芯片和功率器件两大市场
近半世纪长盛不衰的模拟芯片传奇
押注RISC-V:中外芯片上市公司掀并购战,谁的布局最具竞争力?
中国辅助驾驶“新竞赛”打响,高智价比AI芯片如何定义新标杆?
国产厂商,抢滩AI服务器电源芯片
芯片之外,MEMS如何撑起千亿赛道?
深圳AI芯片“小巨人”冲刺IPO,清华学霸创办,夫妻持股超65%,出货量全球第一
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号