【区角快讯】在开源大模型的激烈角逐中,NVIDIA再次交出了一份亮眼的成绩单。据5月6日披露的消息,其旗下开源模型Nemotron 3 Super成功问鼎EnterpriseOps-Gym排行榜开源类别榜首,以27.3分的平均成绩力压群雄。紧随其后的是Kimi-K2.5(26.2分)、DeepSeek v3.2(23.8分)以及MiniMax m2.7(23.0分),而GPT-OSS-120B则以17.1分位列第五。这一排名不仅反映了当前开源生态的竞争格局,更凸显了特定架构在复杂任务中的优势。

回顾今年3月的GTC大会,Nemotron 3 Super作为混合专家(MoE)模型正式亮相。该模型总参数量高达1200亿,但在实际推理过程中,仅激活其中的120亿参数。这种设计巧妙地在维持高知识密度的同时,大幅削减了计算开销。值得注意的是,其采用的潜在混合专家架构通过压缩输入数据,使得在同等推理成本下,能够调用的“专家子网络”数量激增至四倍,从而显著提升了处理复杂任务的灵活性。
长上下文支持是该模型的另一大亮点。原生支持的100万token窗口,让模型在执行长时间任务时能保持连贯的长期记忆,有效规避了目标偏移的风险。数据显示,其吞吐量较上一代Nemotron Super提升了五倍以上。硬件层面的适配同样激进,基于Blackwell架构的原生NVFP4预训练,使其在B200上的推理速度达到H100使用FP8格式时的四倍,且精度未受折损。
此外,借助NeMo Gym与NeMo RL框架,该模型在21种不同环境配置下完成了多环境强化学习后训练,累计部署超过120万次训练环境。目前,Nemotron 3系列已覆盖Nano、Super和Ultra三条产品线,而同步推出的Nemotron 3 Nano Omni更是宣称能将AI吞吐量提升九倍,显示出NVIDIA在细分场景下的全面布局野心。