
新智元报道
【新智元导读】随着Gemini 3模型与第七代TPU的强势发布,谷歌终于打破了OpenAI与英伟达主导的市场叙事,宣告这一「沉睡的巨人」已凭借硬核实力完全醒来。
ChatGPT一转眼已发布三年了。
过去三年,全球科技界都沉浸在一个由两位「双子星」所主导的叙事中——
-
英伟达负责「卖铲子」,提供高达80%毛利的GPU硬件基石;
-
OpenAI则负责「挖金矿」,坚信Scaling Law(扩展法则),定义模型的前沿。
所有人都以为,谷歌这家一度被分析师认为在AI竞赛中「落后」的巨头,只能扮演一个追赶者的角色。
然而,现在一切都已不同。
上个月,当谷歌推出其Gemini 3系列模型和第七代TPU Ironwood时,市场的震撼达到了前所未有的程度。
这种震撼不是因为谷歌「追平」了对手,而是因为它直接重塑了游戏规则。
作为新智元ASI产业图谱11月号文章,本文将深入分析谷歌是如何利用独有的「全栈AI」战略,构建起对手难以复制的护城河并重回巅峰的。


Gemini 3发布后,就连奥特曼都罕见发声,承认在某些关键维度上确实「落后」了。
更加戏剧性的是,英伟达股价也应声下挫,过去一个月跌幅约15%。
如此大的跌幅逼得公司不得不发表声明,强调其GPU的通用性和CUDA生态的不可替代性。
与此同时,谷歌母公司Alphabet的股价却一路飙升,正迈向4万亿美元的市值。

这一切都指向了同一个事实:谷歌这个「沉睡的巨人」,现在已经完全醒来。
而这背后的力量源泉,正是其对AI技术栈的彻底垂直整合——「全栈AI」战略。
正如谷歌CEO Sundar Pichai在Gemini 3发布时所言——
也正因为我们在AI创新上有一套与众不同的全栈做法——从领先的基础设施,到世界一流的研究、模型和工具,再到触达全球数十亿人的产品——我们才能以前所未有的速度,把先进的能力带给全世界。


与Gemini 2.5 Pro相比,Gemini 3的进步并不体现在「参数翻倍」上,而是在推理能力与多模态架构上完成了一次显著跃迁。
它被谷歌定位为一款基于最先进推理能力的原生多模态模型:能在同一个模型里同时处理文本、图像、音频和视频,在统一的内部表示中做跨模态推理,并在多项主流基准测试中取得顶尖成绩。
在LMArena竞技场排行榜中,Gemini 3 Pro在所有项目中目前都排名第一。
在更强调综合智能的Artificial Analysis Intelligence Index排行榜中,Gemini 3同样以73分位居榜首。


如果说Gemini 3是智力的巅峰,那么Nano Banana Pro就是实用性和创造力的狂欢。
Nano Banana Pro一经发布,便迅速引发了一场「社交狂欢」,用户仅需通过极其简单的提示词,就能生成高质量的战力排行榜、知识绘本和各种表情包等。

谷歌CEO Sundar Pichai也提到,Nano Banana Pro在信息图表的生成上取得了突破。
这种强大的应用属性,让普通用户的创造力得以释放。
正如互联网让更多人成为创作者一样,AI工具正让更多人以脑海中的方式来表达自我。

Nano Banana Pro生成的信息图

模型能力的突破可能仅仅是冰山一角。
要理解谷歌的强大,则必须深入到其底层的战略本质——全栈垂直整合。
如果将AI的进步视为一次登月计划,那么竞争对手可能只拥有最先进的火箭(模型)或者最有力的燃料(GPU)。
而谷歌,则建造了一座集成了燃料制造厂、火箭设计院和发射台的全套「航天中心」。
这套「全栈AI」从底层基础设施、世界级研究(模型和工具),一直延伸到面向用户的产品和平台。
换句话说,从Nano Banana这样的应用,到背后的模型,再到最底层的芯片,谷歌几乎都握在自己手里。

谷歌的全栈故事,要从一场看似迫不得已的「自救」行动讲起。
2015年,谷歌内部部署了TPU v1,迅速在各部门获得热烈反响。
这并非出于炫技,而是被逼入了一个「不自研将难以支撑未来业务规模」的现实。

当时,深度学习开始广泛渗透谷歌的搜索、广告等核心业务,这让谷歌工程团队意识到一个关键问题:如果全面采用深度学习模型,谷歌全球数据中心的功耗将暴涨到难以承受的程度。
当时的GPU虽然更适合训练大规模网络,但其能效并非针对实时在线推理设计的。
这让谷歌的高层意识到,继续依赖CPU和GPU的现有路线不可持续。
于是,谷歌决定自己造一块专用芯片(ASIC)——TPU,把目标定得非常简单粗暴:只干一件事,把训练和运行AI模型需要的那些矩阵、向量运算做到极致高效。
到了2017年,那篇著名的Transformer论文发表后,谷歌立即意识到,这个新架构的计算模式高度规则、矩阵密度极高、并行度极高,简直是为TPU量身定做的。
于是,他们自己把软件架构、编译器、芯片架构、网络拓扑、散热系统都握在手里,形成全栈闭环。
TPU由此升级为谷歌AI基础设施的底座和支柱。

如今,TPU已发展到了第七代Ironwood(铁木)。
如果说TPU v4/v5p是兼顾训练和推理的多面手,那么Ironwood就是在继续强化训练能力的前提下,把推理放到设计核心的一代——一个为大规模推理优先、又能承担巨型模型训练的定制利器。
相较第六代TPU Trillium(v6e),Ironwood在训练与推理工作负载上的单芯片性能提升超过4倍;与TPU v5p相比,峰值算力最高可达10倍。
它也是谷歌迄今性能最强、能效最高的TPU。
Ironwood单个superpod可容纳9,216颗TPU,依托9.6 Tb/s级别的芯片间互联和约1.77 PB的共享高带宽内存,大幅缓解了大模型训练和推理中的通信瓶颈,使复杂AI模型在超大规模集群上运行得更快、更稳定。
它的出现,意味着谷歌正式把资源和架构重心从「训练」转向「训练+大规模推理一体化」,并公开把「age of inference」(推理时代)定义为下一阶段AI基础设施的主战场。
通过Ironwood+AI Hypercomputer这套系统级组合拳,谷歌同时在单芯片性能和整机房级算力密度两条战线对标英伟达,争夺下一代AI基础设施的话语权。

Ironwood超级机柜的一部分,直接在一个单一域内连接了9,216个Ironwood TPU

谷歌的AI全栈战略在软硬件一体化这点上看得最清楚。
靠着这套从芯片、数据中心到模型架构都自己打通的体系,谷歌把过去层层割裂的环节拧成了一根绳,性能和效率一起往上抬。
以Ironwood为例,它就是研究人员影响硬件设计、硬件反过来加速研究成果的持续闭环产物。
当谷歌DeepMind团队需要为其顶尖模型实现特定架构突破或者优化时,他们可以直接与TPU工程师团队紧密协同创新。
这种内部协作确保了模型架构的设计始终是基于最新代际的TPU进行训练,从而相对于前代硬件实现显著的性能提升和加速。

Jupiter数据中心网络能够将多个Ironwood超级荚连接成包含数十万个TPU的集群
现在,谷歌的创新循环更进了一步,达到了「AI设计AI」的境界。
他们用一种名为AlphaChip的AI技术来设计下一代芯片的布局方案。
AlphaChip利用强化学习来生成更优化的芯片布局。
目前,这一方法已经成功应用于包括Ironwood在内的连续三代TPU的设计中。
这大大降低了谷歌对外部半导体设计工具和供应商的依赖。
通过这种自研芯片+内部优化,谷歌在算力成本上形成了天然优势,从而避免了昂贵的「CUDA税」。

谷歌内部实测数据显示,Ironwood在同等负载下的推理成本较GPU旗舰系统低30%-40%。
有分析指出,谷歌提供同等推理服务时的底层成本可能仅为对手的两成。
在推理时代,这样的成本差异足以改变大客户的架构选择:对每年在推理上投入数千万甚至上亿美元的企业来说,压缩三到五成支出,足以改写财报。
在这一层意义上,TPU正在变成许多公司重构推理基础设施时优先考虑的算力引擎。
谷歌自己也正在将TPU从「内部黑科技」打造为市场上的「生态可选项」,进而吸引像Anthropic、Meta这样的大客户。
仅Anthropic一家就计划接入高达100万个TPU。
谷歌还顺势启动了TPU@Premises计划,将TPU直接部署在企业的数据中心,使得客户可以在本地以极低的延迟使用推理能力。
近期还有市场传闻称,Meta正评估在2027年把TPU引入自家数据中心,并最早从明年起通过谷歌云租用部分算力——无论最终如何落地,这类讨论本身就说明TPU已经进入一线互联网公司的选项集。
回到更可量化的层面:根据谷歌第三季度财报,谷歌云新增客户数量同比增长近34%,超过10亿美元的大单规模已超过前两年的总和,超过70%的客户正在使用谷歌云的AI产品。
这些变化,在很大程度上都与谷歌在算力成本和产品形态上的优势紧密相关。

正如上文谷歌CEO劈柴哥所言,谷歌的全栈AI战略,是一个涵盖AI基础设施、世界级研究(包括模型和工具)以及将AI带给全球用户的产品和平台的全面系统。
C端产品——特别是其核心业务如搜索、地图以及Gemini app和Nano Banana Pro等新的AI应用——不仅仅是战略的最终输出,它们更是驱动整个全栈AI生态系统向前发展的核心引擎,是实现技术验证、数据积累和商业闭环的关键。
谷歌凭借其无可匹敌的用户规模和数据广度,为其定制硬件和领先模型提供了无与伦比的「炼丹炉」和「试验场」。
这些数据源包括谷歌搜索、Android、YouTube等,谷歌通常自己使用这些数据。
而像Gemini系列模型,则被视为是贯穿谷歌所有产品的主线。
在2025年第三季度,谷歌的第一方模型(如 Gemini)仅通过客户直接API,每分钟就处理约70亿个tokens。
若把搜索、YouTube、Android等所有界面加起来,每月被模型消化的tokens已超过1.3千万亿个(quadrillion),一年内增长了20多倍。

这些数据展示了C端产品作为AI能力载体的恐怖规模,也使得Gemini应用在推出后,月活跃用户数迅速超过6.5亿,形成了驱动AI进步的数据飞轮。
以谷歌AI Mode为例,自推出以来其在美国实现了强劲且持续的周环比增长,查询量在一个季度内翻了一番。
截至三季度,已拥有超过7500万的日活用户,推广到了全球40种语言。
最重要的是,AI Mode已经为搜索带来了增量的总查询增长。
12月2日,谷歌已宣布将AI Mode融入进搜索中,给搜索用户提供类似ChatGPT的聊天体验。
这种C端产品成功将AI技术转化为实实在在的业务增长,进一步奠定了谷歌在核心领域的竞争优势。
简言之,谷歌的C端产品(如搜索),是其全栈AI战略的需求源、数据场和商业出口。
这些C端产品一方面制造了真实的流量和使用压力,另一方面又不断把反馈灌回谷歌的TPU和Gemini,让它们在高频迭代中越跑越省钱、越跑越高效。

在当下这个以「推理为先」的AI时代,谷歌率先把竞争从单一模型的短跑,换成了全栈系统的马拉松。
至此,真正的护城河不再是谁有更多的芯片、更先进的模型,而是谁掌握了「基础设施-研究-产品-数据」的闭环。
展望未来,如果说过去互联网解决的是「信息是如何被找到的」,那么全栈AI要回答的将是「世界如何被重新组织」。
以谷歌为代表的科技公司,能否将这套AI闭环,转化为更公平的教育、更高效的科研、更可持续的产业,将在很大程度上决定下一代技术文明的形状——
那时,我们也许不再刻意谈论AI,因为它将成为文明的默认背景。