
如果在同一赛道无法超越对手,就给自己创造一条赛道。 |
文|邓咏仪
编辑|苏建勋
9月末,杭州,阿里与字节在“AI云市场”排位的激烈竞争,让火药味蔓延在整个城市。
正值阿里云年度活动“云栖大会”举行,不少来参与的观众都能看到,在杭州萧山机场、杭州东站等重要交通枢纽,火山引擎打出大幅广告,当中强调市占率数字:“占中国公有云大模型市场份额46.4%”。
这一表述很值得玩味。火山引擎虽未使用任何“最”、“第一”的极端形容,但众所周知,国内排得上号的云厂商有10家左右,火山引擎一人独占近半份额——相当于什么没说,又什么都说了。

△来源:36氪拍摄
有云行业人士对该广告表示了疑问:火山这个数字是按照MaaS形态统计的,主要是闭源形态,如果是购买了云厂商IaaS和PaaS部署开源社区下载的模型,就不在这个统计范围内,单纯从MaaS形态模型消耗判断竞争格局,不够有全局性。
其实,不止火山引擎,如今各家都能成为“AI云市场第一”。
在不同的广告、市场机构报告中,阿里、字节、百度都在官宣“第一”,只不过表述方式各有侧重,场面甚为剑拔弩张。

△制图:《智能涌现》
谁才是中国AI云第一?这成为9月云厂商、AI公司们的最火话题。
有人建厨房,有人送外卖
首先,要明确的一个事实是:模型厂商的这些AI云第一,都没错。问题核心不在于数据真假,而在于对“AI云市场”这块蛋糕的切分方式不一,即统计口径不同。
那么,各家都是在哪个维度上“赢了”?
我们来具体进行拆解:
字节火山引擎是大模型公有云市场调用量(MaaS)的第一,是指其公有云平台上所有大模型的调用总量。火山上除了字节的豆包,还有有大量的第三方模型,只要在它的云上被调用的Token,都算作它的市场份额。
阿里云的AI云,是包含基础设施(如GPU)、到PaaS(平台),再到上层的MaaS(模型调用)的全链路服务,所产生的总营收规模;
百度所呈现的是“AI公有云服务市场第一”,这会包含更多做产品、行业定制服务的收入。百度还曾经披露过更细分的指标,比如“2025上半年大模型中标项目数量和金额双第一”。
还有大模型厂商智谱,在GLM-4.5发布之后,宣布以openrouter为统计口径,其模型调用收入是其他所有国产模型之和。
选择哪个计算口径,无可厚非。这是因为云计算已经是个成熟的生意,产品模块众多,采购和服务方式也非常多元。
举个例子,一个中小企业,可能直接在云厂商按月租用一个虚拟服务器;而个人开发者,很多时候不需要长期租用服务器,直接注册一个api,按需取用。当有用户开始使用AI应用时,才会请求云厂帮忙处理业务需求。
到了大模型,道理也是同样。从个人、中小企业到大企业,对大模型的需求也不尽相同。
打个比方,火山强调的“大模型调用量”,就像是一家体系化、规模化的连锁店,只提供外卖服务,交付的是一道菜(模型推理结果)。
直白点说,火山认为客户不需要关心后厨如何搭建,比如买的是不是字节的豆包模型、芯片、推理框架,都无所谓——只要最终上菜够快、质量够好就行了。
所以你会看到,火山引擎在不少公开表达中,都在强调自家模型的“快”。
8月,DeepSeek更新V3.1版本后,火山强调的就是20-40ms的吐字间隔(TPOT),以及500万的初始并发TPM(Tokens per Minute),后者当时拉到了业界的最高水平。
TPM,指每分钟可以处理的token数量,是衡量模型服务能力的重要指标。放在一个中度使用场景(如文档总结、代码生成),假设每个用户每分钟消耗500 token,500万的TPM,就意味着可以服务1万用户。
这是一种更偏流量逻辑的打法,起量快。换句话说,也更适合拥有弹性业务需求的互联网AI应用,中小开发者等等的业务需求。
阿里和百度所强调的AI云市场,更多核算的是营收。
比如,阿里云所定义的AI云,统计范围涵盖了从底层的IaaS(基础设施,如GPU算力)、PaaS(平台),再到上层的MaaS(模型即服务)完整体系,所产生的营收数字。
这就好比一个功能齐全的厨房。客户不仅可以拥有厨房里的高级厨具(底层算力),也能直接点菜(模型服务),能做的事情更多了。
为什么要选择全栈自研路线?
单纯卖模型服务,很难形成长期壁垒。一位从事大模型推理服务的工程师对《智能涌现》打了个比方:“比如一个人每周都要去超市(全栈云服务)购物,当他要买一个杯子(API)的时候,除非其他地方的杯子有出众之处,否则,如果在超市有,他大概率会在这个超市顺手买了。”
无论是云还是大模型,真正的粘性来自于整体解决方案和数据绑定,大部分客户最后用的,肯定不会只有纯模型推理服务,比如API,很容易就迁走。
“大多是要用API,再加数据库、虚拟机等完整的产品组合。”上述人士称。
差异化时代来临
需要承认的另一个事实是,如今大模型领域看着热闹,增长迅速,但本质上整体盘子还很小。
2024年5月,火山用降价彻底打开了MaaS服务市场。当时,火山将豆包旗舰模型Pro-32k降至0.0008元/千Tokens,降幅达99.3%。
这直接引爆了行业价格战,阿里、腾讯、百度等厂商纷纷跟进降价。结果是,火山引擎的调用量,从降价前的1200亿Tokens,暴涨到超过5000亿Tokens。
2025年上半年,IDC统计称,全国大模型调用量的在536.7万亿Tokens。如果按豆包Pro 128k去年刚降价定价(0.0005元/千Tokens)粗略计算,2025年全年的MaaS市场总盘子,约为5-6亿元。
相较之下,单是阿里云2024年全年营收,就已经超过800多亿元,和传统意义上的云计算市场相比,如今的MaaS市场不可同日而语。
问题在于,各家厂商现阶段更信什么,更愿意优先投入什么,这导致了不同的市场策略。
云计算是个规模化生意,马太效应显著。阿里云依托传统云服务的优势,天然倾向于提供全栈解决方案,增加模型服务吸引客户。
而火山引擎作为新进入者,抢固有的云计算市场(如CPU)是更困难的,才会专注于在未来的GPU和MaaS(模型推理服务)增长。
5月的公开报道中,火山引擎CEO谭待,就表示“马拉松刚跑了500米”,未来市场空间最少会扩大100倍——比如,根据火山引擎最近公布的数据,豆包大模型日均tokens使用量超过16.4万亿,较去年5月首次发布时,已经增长137倍。
到底谁才是AI市场的第一名?现在并没有统一的标准。
在云栖大会上,阿里云就直接回应了对统计口径的看法:如果只看大模型在公有云上的调用量,就像只看到了冰山一角。
之所以这么说,是因为大量客户并没有在公有云上直接调用模型。阿里云的通义大模型家族走的是开源路线,很多企业会直接把模型下载下来,部署在自己公司的私有云或本地服务器上运行。
这部分客户自己部署使用的调用量非常大,但外部的数据报告根本统计不到。
阿里云衡量的,是整个“AI云”业务的总收入。这个范围很广,包括了出租GPU算力(基础设施)、提供平台服务(PaaS)以及模型调用服务(MaaS)等所有相关收入。按照这个“营收总额”的维度,阿里云是第一。
为了证明自家的大模型影响力更强,其实还有很多细分维度可挖。
在云栖大会会后采访中,阿里云还提出,应该区分厂商卖的是自己研发的模型,还是转售的别家模型;而提供的模型服务,处理的是复杂任务(需要高质量旗舰模型才能完成),还是一些简单的离线打标工作?
9月份的一份沙利文报告,就体现了这种更看重自研能力的思路。按各厂商“自研模型”的日均调用Token份额,数据显示,2025年上半年,阿里通义占17.7%,字节跳动豆包占14.1%,DeepSeek则占10.3%。
价格战难以长期持续。大模型正在从比拼基础设施规模,Token调用量等单一指标,过渡到比拼效能、服务深度。
典型迹象是,2024年,单纯降价格,还能让Token市场有所爆发;但到了2025年,这已经不是灵丹妙药。因为Token已经足够便宜,企业更多关注模型效果和效率。
对规模更小的AI模型厂商而言,他们没有资源做大厂的全栈式路线。那么,差异化会变得前所未有地重要。
最近的例子是,2025年,月之暗面推出的新模型K2,对代码任务做了深度优化,性价比足够高,调用量瞬间起飞;上周,智谱也针对编程场景推出了GLM Coding套餐,并提升了编程服务的并发数。
商业竞争是相当朴实无华的。一个不破的道理是:当在对手擅长的指标上落后时,不如在自己的长板上,重新定义一个指标。而究竟有多少客户买单,才是当下大模型领域最重要的问题。
封面来源|公开网络

