刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。

🤯 盘古 Embedded 7B 模型:
• 参数规模为 70 亿
• 采用双系统框架,具备「快思考」和「慢思考」能力
• 模型具备元认知能力,可根据任务复杂度自动切换推理模式
• 专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度
• 在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3-8B、GLM4-9B 等同量级模型
🔋 盘古 Pro MoE 72B 模型:
• 基于分组混合专家(MoGE)架构
• 总参数量 720 亿,激活参数量 160 亿
• 通过专家分组和组内均衡激活,解决专家负载不均,提高部署效率
• 针对昇腾硬件深度优化,推理速度高效(最高单卡 1528 tokens/s)
• 性能优于同规模稠密模型,在多项公开基准测试中处于领先地位
• 支持大规模并行训练,具备高性价比推理方案
截至发稿前,盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。
此外,盘古 7B 相关模型权重与推理代码将于近期上线开源平台。华为官方表示将诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。
附上访问地址:https://gitcode.com/ascend-tribe