电子发烧友报道(文/李弯弯)在人工智能芯片领域,专用集成电路(ASIC)正崛起。随着AI算力需求爆发,ASIC凭借定制化、高效能等优势,在数据中心、AI推理等场景竞争力强劲。研究公司Counterpoint指出,AI芯片热潮进入第二阶段,ASIC与GPU竞争激烈,博通和台积电有望成最大赢家。 Counterpoint预测,AI ASIC市场规模将从2024年的120亿美元增至2027年的300亿美元,年复合增长率34%。供应商格局中,博通预计2027年保持顶级AI服务器计算ASIC设计合作伙伴领先地位,市场份额扩大至60%;台积电几乎拿下全球前十大数据中心及ASIC客户晶圆制造订单,份额近99%。 主要ASIC玩家及其产品 博通 博通是ASIC领域领头羊,与谷歌、Meta等科技巨头深度绑定。这些公司加速部署自研AI芯片,减少对通用GPU依赖,博通成为重要合作伙伴。 博通为谷歌设计的TPU采用脉动阵列架构,专注张量运算,能效比达英伟达H100的2 - 3倍,推理成本低30% - 40%。高盛分析师称,TPU从v6迭代至v7,每个token成本下降70%。TPU v7于2025年发布,代号Ironwood,是首款专为AI推理设计的TPU,单芯片FP8算力达4614TFLOPS,配备192GB HBM3e显存,能效比前代提升约2倍,支持构建最高9216芯片集群,FP8峰值性能超42.5 exaFLOPS,已用于训练Gemini 3模型。 此外,2025年9月,据知情人士报道,OpenAI计划2026年与博通联合生产自主研发的AI芯片。10月13日,二者宣布达成战略合作,将共同推出总容量达10GW的定制芯片。同时,12月,博通CEO确认Anthropic已累计向公司下达价值210亿美元的AI系统订单,将直接采购近100万颗TPU v7p Ironwood AI芯片,本地部署在控制的数据中心,博通直接供应基于TPU v7p的机架级AI系统,绕过谷歌,不过谷歌预计仍可从交易中取得IP授权收入。 博通AI营收占比近年显著提升,2025财年AI相关收入较2024财年增长约74%。展望2026财年,分析师预测基于AI的半导体收入可能翻倍,博通2026年预定量大幅增至200K,同比增122%,主要受谷歌TPU外供拉动。 Marvell Marvell在ASIC市场占一定份额,但面临挑战。业内预测2027年为关键转折点,届时多家主要厂商将扩大ASIC生产规模。供应商格局中,博通主导,Marvell等企业争夺第二。 Marvell曾与亚马逊合作Trainium 2项目,却因表现不佳失去Trainium 3设计合约,世芯参与开发,处境尴尬,此前被视为博通主要挑战者,如今设计订单增长受阻。Counterpoint估计,即使Marvell总出货量持续增长,设计服务市场份额到2027年仍可能下滑至8%。 Marvell与微软合作Maia芯片。微软推出Maia 200芯片,标志云服务商和AI企业对ASIC竞争进入新阶段。Maia 200是微软2026年1月推出的第二代AI推理加速器,采用台积电3纳米工艺,每颗超1400亿个晶体管,适用于大规模AI工作负载。配备原生FP8/FP4张量核心、重新设计的内存系统,拥有216GB HBM3e内存、7TB/s带宽及272MB片上SRAM,750W SoC热设计功耗内,单颗芯片可提供超10PetaFLOPS的FP4性能和超5 PetaFLOPS的FP8性能,已部署于微软美国中部数据中心,后续扩展至更多区域,为多个大模型提供支持,微软超级智能团队将利用其进行合成数据生成和强化学习,应用于Microsoft Foundry和Microsoft 365 Copilot服务,同时微软开放Maia SDK预览,系统采用水冷设计方案。 微软云与人工智能执行副总裁斯科特·格思里称,Maia 200是微软迄今部署的最高效推理系统,每美元性能比最新一代硬件提升30%,FP4性能是第三代Amazon Trainium的3倍。 联发科 联发科在ASIC市场势头强劲,得益于谷歌双规格ASIC策略,获两代大批量合约,被视为第二名有力竞争者。谷歌可观出货量提供助力,若赢得Meta下一代ASIC订单,市场地位将增强。目前,谷歌TPU是云端ASIC市场最大且最稳定的量产产品,或成唯一能与英伟达出货规模匹敌的产品。 联发科参与谷歌最新TPU v7 ASIC设计,准备深化合作助力下一代AI加速器量产。2025年12月15日消息,谷歌TPU需求爆发,将交给联发科的下一代“TPU v7e”芯片订单量翻倍,利用联发科与台积电紧密合作关系,争取稀缺产能,缩短上市时间,挑战英伟达。 联发科是谷歌引入的关键新合作伙伴,负责推理专用芯片设计与生产。TPU v7中,负责TPU v7e “Zebrafish”版本,专注高效能推理任务;TPU v8中,负责推理芯片TPU v8e设计。 2026年2月5日,联发科CEO蔡力行指出,2026年数据中心ASIC业务可突破10亿美元,2027年上看数十亿美元,未来ASIC占整体营收比重有望达20%。此外,联发科后续将投资CPO、定制化高带宽存储器、3.5D先进封装等关键技术,重新调整资源布局,将更多精力转向AI专用ASIC和汽车芯片等新赛道。随着AI算力需求爆发,联发科在高速通信技术上有独特优势,对数据中心和AI ASIC至关重要。 世芯 世芯处于关键时刻,前景取决于2026年和2027年AWS下一代Trainium芯片生产进展及与英特尔合作。尚未在其他美国主要云服务商客户中取得显著成功,计划拓展中型客户项目,若无法获更大规模云服务商合约,可能在市场份额竞争中落后。 亚马逊Trainium芯片有成本优势,推理成本较H100低30% - 40%,单位算力成本为H100的60%,推理吞吐量高25%。Trainium 3于2025年12月2日发布,采用3纳米制程工艺,性能较第二代提升4.4倍,内存容量与能效分别增加4倍和40%,搭载新一代Neuron Fabric互联技术,单台Trn3 UltraServer可集成144张芯片,总算力达362 FP8 PFLOPs,通过EC2 UltraClusters 3.0架构,芯片集群规模较上一代提升10倍,最高可扩展至100万张芯片,已为Anthropic的“Project Rainier”项目提供算力支持,可降低AI模型训练与推理成本达50%。 不过,Trainium3每枚芯片集成144GB HBM3e,较谷歌Ironwood TPU的192GB和英伟达BlackwellGB300的288GB有容量差距。2026年1月微软发布的Maia 200搭载的高带宽内存容量也超过Trainium3。亚马逊AWS副总裁Ron Diamant表示无意取代英伟达,强调提供高性价比AI训练解决方案,与行业趋势相符。 ASIC与英伟达GPU的对比 英伟达GPU核心优势在于大规模并行计算能力,支持矩阵乘法、卷积运算等AI任务。硬件层面,HBM内存带宽高、GPGPU大规模流处理器阵列是核心武器,从H200、GB200到“Vera Rubin”均如此,性能提升与显存带宽、NVLink互连规模挂钩。 然而,数据中心投入和能耗压力加剧,行业寻求更高效且贴合自身需求的方案,ASIC优势凸显。以博通为谷歌设计的TPU为例,采用脉动阵列架构,专注张量运算,能效比达英伟达H100的2 - 3倍,推理成本低30% - 40%,定制芯片成本更具优势。虽英伟达CUDA软件是维护企业客户的关键护城河,覆盖全球95%以上AI开发者,但业内认为未来几年市场将呈现ASIC与GPU并存局面。 写在最后 ASIC市场快速发展,博通凭借与科技巨头合作和强大技术实力占据领先地位;Marvell面临挑战,仍努力争夺市场份额;联发科势头强劲,通过与谷歌合作拓展业务;世芯处于关键发展期,未来取决于与AWS合作进展。ASIC与GPU竞争中,英伟达GPU有强大并行计算能力和广泛软件生态支持,但ASIC凭借定制化、高效能和成本优势,在数据中心和AI推理等领域逐渐占据一席之地。未来,随着技术进步和市场需求变化,ASIC市场格局可能改变,各玩家需不断创新优化产品,以适应市场挑战和机遇。