
要点
Omdia最新研究显示,大型前沿AI模型的增长正在明显放缓,而“小型”和中等规模模型则在能力与应用层面持续扩张,正在重塑AI生态与基础设施需求。
Omdia最新分析《AI Model Trends Spring 2026:最先进AI模型及其算力需求》显示,自2021年以来,前沿模型的参数规模年增长率仅约5%,而在2019至2021年期间曾实现超过100倍的爆发式增长。与此同时,“小型模型”的定义正在快速演变,7B–14B参数模型正逐步取代1亿参数级模型,而中等规模开源模型类别也正在开发、情绪分析及应用部署中快速崛起。
Omdia资深首席(Senior Principal)分析师Alexander Harrowell 表示:“过去AI模型增长放缓通常与1980年代那样的‘AI寒冬’相关,当时行业面临系统性挑战。但如今显然并非如此,因此推动这一变化的因素完全不同。”
“我们认为,这一趋势很大程度上与AI智能体(Agents)的崛起有关。现代AI系统越来越依赖工具调用能力,本质上是用相对廉价的CPU计算替代更昂贵的GPU资源。因此,CPU与GPU的计算比例可能逐渐接近 1:1。”
AI智能体同样正在推动对超长上下文窗口的需求增长。由于所有输入、交互和工具通信都需通过上下文窗口处理,扩展上下文能力变得至关重要。因此,对上下文卸载(context offload)的管理也日益重要,一种横跨内存与高速存储的新型缓存层级正在形成,以支持此类工作负载。然而,这种在AI模型(GPU侧)、智能体(CPU侧)以及上下文卸载之间的分化,将对数据中心网络带来更大压力。
中等规模模型之所以快速增长,是因为它们在如 OpenClaw 等系统中承担智能体协调角色,同时具备更强的多模态能力。Harrowell指出:“市场对中端GPU(如NVIDIA B40)的关注也在上升,这类芯片既适用于中等规模模型,也适用于解耦推理架构中的解码侧。”
“但对于任何新AI芯片而言,最核心的竞争挑战依然是上一代旗舰GPU。由于其仍具备较高性价比,旧一代GPU正在继续保留价值并维持运行,成为小型与中型模型推理及解耦架构中的重要算力来源。”
文章版权和解释权归微信平台Omdia所有