【区角快讯】2026年3月12日,英伟达正式发布新一代开源大语言模型Nemotron 3 Super,进一步强化其在AI智能体领域的布局。该模型总参数量为1200亿,采用混合专家架构,推理过程中仅激活120亿参数,在保持高精度的同时显著降低计算开销。

相较于前代产品,Nemotron 3 Super宣称推理速度提升3倍,整体吞吐量增长达5倍。其原生支持100万token的上下文窗口,有效缓解多智能体交互中常见的“上下文爆炸”与任务目标偏移问题。为突破多Agent协同中的性能限制,该模型融合Mamba与Transformer结构,并引入潜在混合专家(Latent MoE)机制,实现更高效率的资源调度。
在精度支持方面,除常规的BF16与FP8格式外,Nemotron 3 Super还可在英伟达Blackwell及后续硬件平台上以NVFP4精度进行训练与推理,进一步压缩内存占用并加速处理流程。据官方披露,该模型已在Artificial Analysis榜单中登顶,在同规模开源模型中准确率表现最优,并助力NVIDIA AI-Q研究智能体在DeepResearch Bench及其第二代基准测试中双双位列第一。
目前,Nemotron 3 Super已被Perplexity、Palantir、西门子、戴尔和HPE等企业集成至其核心工作流,并可在AWS、Azure与Google Cloud等主流云平台部署使用。对开发者而言,该模型亦展现出极强的实用性——在OpenClaw任务评估中取得85.6%的成功率,性能接近Claude Opus 4.6与GPT-5.4,却以完全开源免费的形式提供,大幅降低应用门槛。
模型权重已上线Hugging Face开源社区,地址为:https://huggingface.co/collections/nvidia/nvidia-nemotron-v3。随着企业AI应用从单体聊天机器人向复杂多智能体系统演进,具备高吞吐、长上下文与低成本特性的开源模型正成为产业落地的关键基础设施。