
因为公众号平台更改了推送规则。记得点右下角的大拇指“赞”和红心“推荐”。这样每次新文章推送,就会第一时间出现在订阅号列表里。
AI正在通过一场前所未有的硬件驱动的投资超级周期重塑全球技术格局。到2030 年,用于优化AI 数据中心的资本支出预计将超过7 万亿美元,这一规模是任何以往的计算转型都无法比拟的。这一增长反映了两个结构性转变的融合:生成式AI 模型的工业化以及能够训练和服务于万亿参数系统的超大规模计算园区的物理建设。仅大型云厂商就占据了这一总额的3200多亿美元,亚马逊大约投入1000亿美元,微软800 亿美元,谷歌750 亿美元,Meta 650 亿美元。其余部分则来自主权倡议和专门的基础设施提供商,包括由一批AI 企业及主权财富投资者组成的财团支持的5000 亿美元的“星门”计划。

这一波浪潮标志着与传统云周期的显著不同。在21 世纪10 年代,云建设主要围绕计算弹性和虚拟化展开。而21 世纪20 年代的AI 建设则从根本上是关于吞吐量密度的,以每瓦特的浮点运算次数和每个机架的浮点运算次数来衡量,从而推动了巨大的半导体需求。2025 年第二季度,数据中心半导体市场同比增长44%,并且有望在2026 年再增长33%。
这对于半导体设计和供应链的影响是深远的。GPU、AI加速器、HBM存储器、网络ASIC以及先进的封装技术如今在行业内占据了资本配置的主导地位。每个超大规模数据中心都在提前数年竞相争取晶圆和封装产能。这一AI超级周期也标志着“计算经济”的诞生。如今,每一美元的AI资本支出都能直接转化为对半导体、电力基础设施和专用冷却系统的下游需求。消耗400 至800 兆瓦电力的数据中心园区不再是例外情况,而是新的常态。这一趋势的规模凸显了为什么2026 年将成为自集成电路问世以来半导体行业最具决定性意义的一年。
AI时代的半导体需求动态
AI革命彻底改变了半导体行业的增长轨迹,使其成为全球计算经济的基础层。如今,对AI数据中心的投资会遍及整个半导体产业链,从GPU和加速器到HBM、网络芯片和先进的封装技术。在2025 年第二季度,英伟达报告称总收入为 467 亿美元,同比增长 56%,其中其数据中心部门的收入就达到了 411 亿美元。其Blackwell架构推动了连续的收入增长,使英伟达在AI计算基础设施领域保持了主导地位。两个大客户占据了英伟达数据中心收入的近 40%,这凸显了AI需求在超大规模企业的集中度。
尽管英伟达的专有CUDA 生态系统和NVLink 互连保持了强大的锁定效应,但AMD 的Instinct MI450 平台,凭借与OpenAI 达成的60 亿瓦GPU 供应协议,正在迅速获得认可,其初步部署计划定于2026 年末。英特尔通过其Gaudi系列产品以及诸如Foveros和EMIB等先进的封装技术,重新彰显了自身的影响力,将自身定位为AI供应链中的关键合作伙伴。
与此同时,全球HBM市场预计将大幅扩张,预计总市场规模将从2024 年的约160 亿美元增长至2030 年的超过1000 亿美元。这种增长趋势意味着到本十年末,仅HBM 市场的规模就可能超过2024 年整个DRAM 行业的规模,凸显了其在AI计算供应链中的核心地位。如今,每个GPU 模块都集成多达192GB 的HBM3e,这导致了持续的短缺和延长的交货期。与此同时,网络芯片也正经历着爆炸式增长。英伟达的Spectrum-X 和NVLink 架构取得了显著增长。像博通和美满电子这样的主要供应商同样至关重要,能够实现400 - 800 Gb/s 的互连,从而支持大规模的AI训练集群。
封装技术是这条产业链中的另一个关键环节,但同时也是一个面临巨大挑战的环节。诸如台积电的CoWoS 技术、英特尔的Foveros 技术以及EMIB 技术等先进方法对于将计算、存储和I/O 集成到一体化的多芯片系统中至关重要。然而,产能仍然有限,例如CoWoS 生产线到2027 年中期都已被预订满,而像Ibiden和Amkor这样的基板供应商也难以满足需求。随着NVIDIA 在2025 年的持续增长,AI半导体已成为全球技术经济的核心引擎,推动了投资、创新和产业变革,其规模之大是自互联网兴起以来前所未有的。
Neo-Cloud带来的变革
Neo-Cloud的兴起标志着AI基础设施领域在架构和经济层面的一次重大转变。

与AWS、Azure 和谷歌云等传统超大规模云服务提供商不同,这些基于虚拟化计算和弹性存储构建的云平台(如CoreWeave、Crusoe、Lambda 和Nebius)是从零开始设计的,旨在实现高GPU 密度、低延迟网络和特定AI工作负载的优化。
它们的基础设施优先考虑吞吐量而非弹性,利用NVIDIA HGX、NVLink 和定制的AMD Instinct 系统来实现每瓦特的最大性能。CoreWeave 是专门用于AI基础设施的转型典范,它从以太坊挖矿发展成为全球领先的 GPU 云服务提供商之一。截至2025 年年中,该公司在33 个数据中心运营着约25 万块NVIDIA GPU,包括H100、H200 和GB200 NVL72 系统,总IT 电力约为 470 兆瓦,合同容量为2.2 千兆瓦。在2024 年末进行二次股票发售后,该公司估值达到230 亿美元,并在2025 年10 月达到700 亿美元的市值。
在Hopper级GPU 上,其模型FLOPS 利用率比公开基准高出约20%。这种方法缩短了配置周期,提高了性能的一致性,并使AI开发者能够在全球GPU 缺货的情况下迅速扩展工作负载。NVIDIA 持有CoreWeave 6%的股权,这表明了他们之间的深度合作以及在诸如GB200 和GB300 NVL72 系统(分别于2025 年初和中期部署)等下一代架构上的高度一致。
Neo-Cloud架构的出现重新定义了半导体行业的经济模式和供应关系。英伟达与这些公司建立了战略合作伙伴关系,给予它们提前使用下一代GPU的权限,作为交换条件,它们需做出长期的购买承诺,从而确保在超大规模云服务谈判之外也能拥有稳定的高利润销售渠道。
AMD 在2025 年与OpenAI 达成合作后,开始向Neo-Cloud运营商供应MI450 加速器,预计其2026 年AI GPU的出货量中将有 15% 会流向专业供应商。对于英特尔而言,与Neo-Cloud的合作伙伴关系为其在台积电的晶圆厂限制条件下展示Foveros 和EMIB 包装技术提供了立足点。这种资本灵活性,再加上持续的使用,使Neo-Cloud成为私人投资者和半导体供应商眼中极具吸引力的合作伙伴。
瑞银与之前麦肯锡的预测一致,进一步证实了AI基础设施资本支出的上升趋势。据瑞银集团称,到2025 年,全球AI资本支出预计将增长60%,达到3600 亿美元,并在2026 年再增长33%,达到4800 亿美元,这一增长是由主权和企业投资者的进入所推动的,包括新兴的Neo-Cloud和国家AI基础设施项目。在这个不断扩大的市场中,到2026 年,Neo-Cloud运营商预计将在全球AI计算投资中占据约10%至15%的份额,从而形成一个多样化且加速的需求周期,到2027 年将重塑对GPU、HBM 和先进封装技术的采购模式。
原文链接:
高端微信群介绍 | |
创业投资群 | AI、IOT、芯片创始人、投资人、分析师、券商 |
闪存群 | 覆盖5000多位全球华人闪存、存储芯片精英 |
云计算群 | 全闪存、软件定义存储SDS、超融合等公有云和私有云讨论 |
AI芯片群 | 讨论AI芯片和GPU、FPGA、CPU异构计算 |
5G群 | 物联网、5G芯片讨论 |
第三代半导体群 | 氮化镓、碳化硅等化合物半导体讨论 |
存储芯片群 | DRAM、NAND、3D XPoint等各类存储介质和主控讨论 |
汽车电子群 | MCU、电源、传感器等汽车电子讨论 |
光电器件群 | 光通信、激光器、ToF、AR、VCSEL等光电器件讨论 |
渠道群 | 存储和芯片产品报价、行情、渠道、供应链 |

< 长按识别二维码添加好友 >
加入上述群聊

带你走进万物存储、万物智能、
万物互联信息革命新时代
