刚刚!华为首个开源大模型发布!

AI大模型前沿 2025-06-30 10:43


刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。


🤯 盘古 Embedded 7B 模型:


• 参数规模为 70 亿

• 采用双系统框架,具备「快思考」和「慢思考」能力

• 模型具备元认知能力,可根据任务复杂度自动切换推理模式

• 专为在昇腾 NPU 上优化部署,兼顾推理速度与推理深度

• 在 AIME、GPQA 等复杂推理基准测试中,超越 Qwen3-8B、GLM4-9B 等同量级模型


🔋 盘古 Pro MoE 72B 模型:


• 基于分组混合专家(MoGE)架构

• 总参数量 720 亿,激活参数量 160 亿

• 通过专家分组和组内均衡激活,解决专家负载不均,提高部署效率

• 针对昇腾硬件深度优化,推理速度高效(最高单卡 1528 tokens/s)

• 性能优于同规模稠密模型,在多项公开基准测试中处于领先地位

• 支持大规模并行训练,具备高性价比推理方案


截至发稿前,盘古 Pro MoE 72B 模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模 MoE 模型推理代码,已正式上线开源平台。


此外,盘古 7B 相关模型权重与推理代码将于近期上线开源平台。华为官方表示将诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。


附上访问地址:https://gitcode.com/ascend-tribe


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
开源
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号