
【区角快讯】曾因单日股价飙升42%而被冠以“全球大模型第一股”的智谱正式发布GLM-5技术报告,全面披露其底层架构与创新细节,直接回应外界关于“套壳”或“蒸馏海外模型”的质疑。
该报告明确指出,GLM-5定位为推动编程范式由“Vibe Coding”(氛围编程)向“Agentic Engineering”(智能体工程)演进的下一代基础模型,其性能跃升主要依托四大核心技术突破。
首先,模型引入DeepSeek稀疏注意力机制(DSA),取代此前GLM-4.5所采用的标准MoE架构。该机制能依据Token的重要性动态分配计算资源,在不牺牲长上下文理解与推理深度的前提下,显著降低训练与推理的算力消耗。得益于此,GLM-5参数规模扩展至7440亿,训练数据量达28.5万亿Token。
其次,智谱构建了全新的异步强化学习(RL)基础设施。在延续GLM-4.5时期“slime框架”中训练与推理解耦思路的基础上,新系统进一步实现生成与训练流程的深度分离,极大提升GPU利用率,并支持大规模智能体轨迹探索,有效缓解同步训练带来的效率瓶颈。
在上述基础上,团队研发出一种新型异步Agent强化学习算法。相较于GLM-4.5依赖迭代自蒸馏与结果监督的方式,新算法使模型能在多样化、长周期的交互环境中持续优化自主决策、动态规划及自我纠错能力,从而在真实软件工程任务中展现卓越表现。
另外,GLM-5从设计之初即全面适配国产算力生态。通过与华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯及燧原等七大国产芯片平台深度协同,完成从底层内核到上层推理框架的全栈优化。此举不仅克服了异构硬件部署的复杂性,更使单节点国产设备性能媲美双卡国际主流GPU集群,长序列处理成本降低50%。
尤为引人注目的是,智谱在OpenRouter平台曾以代号“PonyAlpha”匿名上线GLM-5,开展盲测实验。此举虽具风险,却收获社区高度认可。上线数日内,开发者普遍惊叹其在复杂代码生成、Agent任务链及角色扮演中的强大能力。最终盲测结果上,25%认为是Claude Sonnet 5,20%指向Grok新版本,10%猜为DeepSeek V4,其余则准确识别为GLM-5。身份揭晓后,该测试被视为对本土模型技术实力的有力正名。
目前,GLM-5不仅在Artificial Analysis榜单位列全球第四、开源第一,更在SWE-bench-Verified与TerminalBench 2.0分别取得77.8和56.2的开源最高分,超越Gemini 3 Pro。其在内部ClaudeCode评估中,前端、后端及长程任务表现较GLM-4.7平均提升超20%,使用体验逼近Claude Opus 4.5。
当前,行业共识正从“会写代码”转向“能完成系统级工程”,而GLM-5正是这一范式迁移的关键载体。它不再仅为演示而生,而是面向生产环境稳定交付的“系统架构师”。
在全球AI竞争格局中,如果说字节跳动的Seedance 2.0展现了中国AI的创意想象力,那么GLM-5则彰显了其扎实的工程执行力。