电子发烧友网报道(文/梁浩斌)在这轮全球AI大通胀中,在过去两年价格战打得不可开交的云算力也终于顶不住压力,阿里云、百度智能云、腾讯云等国内云计算大厂近日纷纷发布公告宣布AI算力相关服务价格上调,上调幅度最高超过30%。 全球云服务大涨价,北美涨幅高达100% 阿里云在3月18日的公告中表示:“因全球AI需求爆发、供应链涨价,行业核心硬件采购成本显著上涨。经审慎评估,我们决定将于2026年4月18日起对AI算力、CPFS(智算版)等服务价格进行调整。” 其中平头哥真武810E等算力卡相关服务上涨幅度为5%至34%;CPFS(阿里云文件存储)智算版上涨30% 百度智能云在3月18日发布公告称,“受全球人工智能应用快速发展影响,算力需求持续攀升。核心硬件及相关基础设施成本出现显著上涨。为保障平台长期稳定运行与服务质量,我们对部分产品价格进行结构性优化。” 其中AI算力相关产品服务,上调约5%-30%;并行文件存储等:上调约30%。 腾讯云则在3月11日发布公告表示,为了持续提供稳定优质的大模型服务,对混元系列模型价格进行调整,具体为Tencent HY2.0 Instruct输入价格从0.0008元/千tokens,大幅上调至0.004505元/千tokens,上涨幅度高达463%;输出价格也从0.002元/千tokens,上调至0.01113元/千tokens。 Tencent HY2.0 Think输入价格从0.001元/千tokens,大幅上调至0.0053元/千tokens,上涨幅度高达430%;输出价格从0.004元/千tokens,上调至0.0212元/千tokens。 同时智谱也在3月16日宣布调整部分产品价格,GLM-5-Turbo相对GLM-5涨价20%,相对GLM-4.7平均上涨83%,而这已经是自2月以来智谱的第二次涨价。 除了国内厂商,北美云服务大厂涨价幅度也非常大。今年一月,亚马逊云AWS率先调价,表示由于全球 GPU 供应短缺,AI 算力将更多地采用基于供需关系的“季度动态审查”定价模式,因此对用于大模型训练的EC2机器学习容量块实例涨价15%,比如搭载NVIDIA H200的 p5e.48xlarge 实例每小时单价已从约 34.61美元涨至39.80美元;跨区域数据传输费上调25%-40%,基础出口流量价格从0.08美元/GB升至0.09美元/GB,同时扩大免费出口流量额度对冲小型用户成本压力。 谷歌云在2026年初针对基础架构,尤其是网络带宽和特定AI实例进行了价格翻倍,针对 CDN Interconnect、直接对等互连(Direct Peering)和运营商对等互连的出站流量费用将大幅上涨,其中北美地区涨幅高达100%,欧洲地区涨幅约60%,亚洲地区涨幅近50%。AI 基础架构A3 Ultra系列实例在欧洲和亚洲市场的价格也计划于5月同步上调。 整体来看,2026年的AI算力价格上涨已经是一个全球趋势,从各大厂商公开的说法来看,核心原因在于算力硬件和基础设施成本的显著上涨,由算力需求大增、存储芯片价格暴涨等引发的供应链成本传导。 腾讯高管近期回应存储芯片涨价时也表示,人工智能需求激增不仅带动DRAM及高带宽内存(HBM)需求回升,乃至CPU、固态硬盘、机械硬盘等需求全面回升。目前订单已需提前几个月、几个季度甚至数年预定。供应商优先保障规模最大、合作最稳定的客户,比如腾讯云。规模较小的云厂商如今已难以确保获得稳定的供应链支持,在此背景下行业或别无选择,只能将成本上涨转嫁至售价。 不过京东云在18日发布公告称全系核心产品不涨价,并作出承诺,明确拒绝跟风涨价,现有云主机、AI算力、存储、网络等全系核心产品价格保持稳定,不新增涨价项、不提高收费标准,保障客户现有业务成本可控。同时下调数据库、中间件等多款产品价格,平均降幅超16%,最高降幅达40%。 当Token成为新的生产力,算力基建的大跃进才刚刚开始 近期火爆的OpenClaw,除了带来了AI Agent的首次大规模落地应用之外,对AI行业而言更重要的是,改写了市场对Token的需求逻辑和认知框架,大量C端用户带来了新的算力消耗需求。 一方面是AI Agent的完全自主执行,带来了前所未有的高频调用,在执行复杂任务时Token消耗量是过去传统聊天机器人的百倍之多。同时与聊天机器人不同的是,OpenClaw的运行往往是定期、长周期的任务,这意味着具备稳定的Token需求,而并不是过去聊天机器人只有人亲自输入内容或指令才会消耗Token。 由AI Agent带来的海量Token需求,也给云服务厂商带来了新的压力,大量涌入的需求导致供应不足,而存储等算力硬件的价格上涨又使得数据中心扩容成本和运营成本大幅上涨。 因此,阿里巴巴也在近期宣布成立ATH(Alibaba Token Hub)事业群,并由CEO 吴泳铭亲自挂帅,明确Token 是支撑AI Agent运行,甚至是未来生产力的核心“燃料”。ATH 整合了此前散落在阿里云、通义实验室等不同业务条线的核心资产,包括通义实验室、MaaS 业务线、千问事业部等,目的是解决算力拉扯和产研协同的问题,建立“创造Token、输送Token、应用Token”的完整闭环。 而过去AI模型的竞赛,也将随着新的AI应用落地,逐步转向Token生产的竞赛。 从算力基建的角度,即从训练的需求转往了推理,未来推理的需求将成为算力基建的关键。低延迟、边缘侧算力开始崛起,更加分散的算力基础设施可能会成为趋势。 另外,随着单机架的算力密度和功率密度不断提升,单机架功率逼近兆瓦级,英伟达在GTC2026上也再次强调了800V HVDC架构在Rubin架构服务器中的重要性,高压直流架构减少了电能转换次数,除了能够提供更大功率的用电需求,还能提高能源利用效率。 在AI芯片上,英伟达在GTC2026上也推出了搭载Groq 3LPU的Vera Rubin平台,单个LPU集成高达500MB的SRAM,专为推理加速而设计,提供超低延迟和超大吞吐量。LPU的落地,也证实了当前行业对于推理需求的转变,更加追求极致的每秒 Token 产出比。分析师郭明錤预测,2026至2027年LPU的总出货量将达到400万至500万颗。 小结: 云服务商涨价的背后,反映的是AI产业从过去AI大模型训练为主,转往AI Agent推理落地的时代。2026年从AI Agent落地开始,云服务商扭转了算力价格战的内卷格局,从过去不计成本亏损获客到从Token需求中获利,或许是标志着AI产业新的商业、技术增长飞轮真正启动。