热点丨开源大模型迎来新选择,字节跳动开源Seed-OSS系列模型

AI芯天下 2025-08-25 20:30
资讯配图

·聚焦:人工智能、芯片等行业

欢迎各位客官关注、转发




资讯配图



前言
在大模型技术加速迭代的今天,开源生态正成为推动行业创新的核心力量。

近日,字节跳动Seed团队突然官宣开源Seed-OSS系列大语言模型,以360亿参数的中等规模入局,却凭借原生512K超长上下文、可编程[思考预算]等突破性技术,在七项公开基准测试中刷新开源模型最优成绩。



作者 | 方文三
图片来源 |  网 络 

资讯配图

超长上下文与可控推理的双重突破


Seed-OSS系列最引人瞩目的两大核心特性,彻底改变了开源大模型的能力边界:原生512K超长上下文与可编程[思考预算]机制。


前者解决了信息处理的广度问题,后者则实现了推理过程的精准控制。


原生512K上下文窗口是Seed-OSS的[撒手锏]。


这一能力并非通过后期外推或插值实现,而是在预训练阶段就直接构建,能稳定支持512K tokens的序列长度,相当于一次性处理90万个汉字,约等于《三体》三部曲全集的文本量。


这一容量是当前主流开源模型(如DeepSeek V3.1)的4倍,能轻松应对完整财报分析、长篇法律合同审查、大型代码库理解等专业场景。


在长文档理解基准测试RULER-128K中,Seed-OSS-36B-Instruct以94.6分的成绩远超第二名Qwen3-32B的77.5分,领先优势达17.1个百分点。


这一数据印证了其超长上下文的实际效果。


在处理128K以上的真实长文档任务时,模型能保持信息连贯性,避免因上下文截断导致的关键信息丢失,这对需要深度挖掘长文本逻辑关系的场景至关重要。


[思考预算]机制则体现了Seed-OSS对推理过程的精细化控制能力。


用户可通过[thinking_budget]参数限定模型的中间推理步数,预算单位为tokens,推荐设置为512的整数倍(如0、512、1K、2K等)。


其底层通过动态规划算法实现,模型会在推理过程中实时评估剩余预算,并优先分配资源到关键逻辑节点。


这种机制让模型能根据任务难度动态调整推理策略:对于IFEval等简单指令跟随任务,增加预算对性能影响不大,设置0预算(即时响应模式)可实现快速响应并降低成本;


而面对AIME24高难度数学推理或LiveCodeBench代码生成任务时,预算从512提升到4K,准确率分别提高6.3%和4.7%。


例如在代码生成中,更高预算会让模型自动增加函数依赖关系验证步骤,显著提升代码可靠性。


资讯配图
开源模型性能七项测试霸


Seed-OSS-36B-Instruct在七项公开基准测试中均取得开源模型最优成绩,覆盖通用知识、数学推理、代码生成、长文档理解等核心领域,用硬数据证明了其中等规模参数的强大实力。


在通用知识与多领域能力评估基准MMLU-Pro中,Seed-OSS-36B-Instruct得分82.7,比开源领域次优模型Qwen3-30B-A3B高出0.8分。


这一成绩表明,即使在不依赖超大规模参数的情况下,通过优化训练数据与网络结构,模型仍能在跨领域知识掌握上实现领先。


复杂数学推理是大模型的[试金石],Seed-OSS在AIME24基准中以91.7分领先Qwen3-30B-A3B 4.0分,展现出对高级数学问题的强处理能力。


这背后既有数据增强策略的功劳,也得益于[思考预算]机制提供的充足推理空间。


模型能在预算范围内完成公式推导、步骤分解和自我验证,大幅降低计算错误率。


代码生成领域,Seed-OSS-36B-Instruct在LiveCodeBench v6中得分67.4,比OAI-OSS-20B高出3.6分;


HumanEval通过率76.8%,MBPP达到80.6%,均刷新开源模型纪录。


这与其时序数据增强策略密切相关,通过学习Git提交记录中的代码演变过程,模型能更好地理解代码逻辑与开发规范。


软件工程任务评估基准SWE-Bench Verified中,模型得分56,比OpenHands高出1.2分,证明其在解决真实软件工程问题上的实用性。


而在智能体任务基准AgentBench中,Seed-OSS同样排名开源模型第一,验证了其在多步骤交互、工具使用等复杂场景的适用性。


多语言能力上,Seed-OSS在涵盖90种语言的XTREME评测中,平均得分比Llama 3-65B高4.3分,这得益于其155K子词的多语言分词器和跨语言对比学习策略。


逻辑推理方面,BBH基准得分87.7,超过Qwen3-30B-A3B的81.2分,展现出强大的逻辑链构建能力。


更令人惊叹的是,这些成绩是在仅使用12T token训练数据的情况下取得的,相比之下,很多同规模模型的训练数据量都在15T以上。


这意味着Seed-OSS团队通过更高效的训练策略和数据处理方法,实现了[少而精]的性能突破,为大模型训练的成本优化提供了新思路。


资讯配图

从网络设计到训练策略的革新


Seed-OSS系列的卓越性能并非偶然,而是建立在对大模型技术架构的系统性优化之上。


从网络结构设计到训练策略选择,每一处细节都体现了工程化与学术创新的深度结合。


在网络结构上,Seed-OSS-36B采用360亿参数的稠密Transformer架构,包含64层网络和5120的隐藏维度。


其核心创新在于注意力机制的设计,使用分组查询注意力(GQA),设置80个查询头和8个键值头。


与传统多头注意力相比,GQA通过让多个查询头共享键值头,在保持模型性能的同时,显著降低了推理过程中的内存占用和计算量。


这一优化使单张80GB显存显卡就能运行半精度模型,大幅降低了部署成本。


位置编码技术是支撑512K超长上下文的关键。Seed-OSS采用旋转位置编码(RoPE),但将基频参数从常规的1×10⁴提升至1×10⁷。


这一看似简单的调整,让模型能更精准地捕捉长序列中的相对位置关系,从根本上解决了长文本处理中的上下文连续性问题。


在处理长达1600页的合同文本时,Seed-OSS-36B-Instruct的上下文连续性错误率比同规模模型降低42%,这在法律文书审查、金融财报分析等专业场景中价值连城。


训练策略上,使用12T token的高质量语料,经过去重、毒性过滤和版权清洗三重处理,确保数据质量。


训练框架结合PyTorch 2.3和Megatron-LM的混合并行技术,动用1024张A100显卡连续训练60天,在精度控制上采用bf16前向计算加fp32主权重,梯度裁剪设为1.0,学习率通过余弦退火降到1×10⁻⁵。


在多语言对齐方面,通过中文、英文语料的跨语言对比学习,使MMLU-Pro的中英混合测试得分提升3.2分;


针对代码生成任务,利用Git提交记录构建时序训练数据,将HumanEval得分提高2.1分;


在数学推理训练中,刻意混入15%的错误推导过程,迫使模型学会识别逻辑漏洞,最终使AIME24的准确率提升6.3%。


推理优化方面,Seed-OSS支持4-bit和8-bit量化(包括GPTQ、AWQ两种方式),并提供vLLM和Transformers双后端推理脚本。


通过vLLM后端优化,单卡80GB显存可实现每秒32 token的生成速度,完全满足直播字幕生成等实时场景需求。


而创新性的[思考预算]机制,则让用户能通过token级开关控制推理深度,实现性能与成本的灵活平衡。


Seed团队此前已陆续开源Seed-Coder代码生成模型、BAGEL多模态模型、Seed Diffusion语言模型等项目,加上此次的Seed-OSS系列,形成了覆盖多领域的开源矩阵。


从技术趋势看,Seed-OSS的成功验证了两大方向的价值。


①中等规模模型的精细化优化,通过网络结构创新、训练策略改进和推理机制设计,360亿参数模型能在特定场景媲美更大规模模型。


②[可控性]成为大模型实用化的核心指标,[思考预算]机制将性能与成本的调控权交还给用户,这种[以人为本]的设计思路可能成为未来大模型的标配功能。


资讯配图
尾:


从可选项到标配,开源正在重塑大模型的竞争格局。Seed-OSS系列的出现,不仅是一次技术突破,更是对行业创新模式的探索。


当技术红利通过开源惠及更多主体,当创新成本因共享机制大幅降低,大模型的黄金时代才真正拉开序幕。


部分资料参考:拟合论见:《36B模型却能读懂90万字上下文?解密字节首个开源大语言模型》,量子位:《字节突然开源Seed-OSS,512K上下文碾压主流4倍长度!推理能力刷新纪录》,智东西:《字节首次开源推理模型,连夺7项第一》


本公众号所刊发稿件及图片来源于网络,仅用于交流使用,如有侵权请联系回复,我们收到信息后会在24小时内处理。



END


推荐阅读:

资讯配图
资讯配图

资讯配图

商务合作请加微信勾搭:
18948782064

请务必注明:

「姓名 + 公司 + 合作需求」


资讯配图 

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
开源
more
轻量级易开发,8B参数释放大实力!科学多模态模型Intern-S1-mini开源
老宇哥出手,100W快充 + USB3.0高速传输(3A1C),这个开源HUB项目太香了!
ICCV 2025 | ECD:高质量合成图表数据集,提升开源MLLM图表理解能力
【他山之石】ICCV 2025 | ECD:高质量合成图表数据集,提升开源MLLM图表理解能力
字节首次开源推理模型,连夺7项第一
字节突然开源Seed-OSS,512K上下文碾压主流4倍长度!推理能力刷新纪录
Chain-of-Agents: OPPO推出通用智能体模型新范式,多榜单SOTA,模型代码数据全开源
在OpenAI炼Agent一年半,回国做出首个开源Agent训练框架!这个30岁清华天才却说:创业不是技术命
字节跳动发布全新开源模型 Seed-OSS-36B,支持 512K 令牌上下文
DeepSeek新开源模型V3.1上线,第一波网友实测出炉,编码能力更强了
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号