刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场

APPSO 2025-10-16 17:34
该说不说,都 2025 年了,我问 AI 一个问题,体验却常常两极分化。
简单的事,它秒回,但答得跟没答一样。复杂的事,让它深度思考,它又要琢磨 30 秒以上。
而每一次回答,AI 都在不断「燃烧」token。
对企业来说,token 消耗量直接等于成本。当模型开启深度思考时,效果确实能提升一大截,可延迟高了,token 烧得更猛了,成本也就跟着水涨船高。
这是整个行业的痛点。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图1
尤其是 AI 应用越来越多,token 消耗也在暴涨。以豆包大模型为例,到 9 月底的日均 token 调用量已经突破 30 万亿+,比 5 月底暴涨超 80%。而这,还只是市场的一部分。
当 AI 需求以这样的速度增长时,要么忍着用效果差的轻量模型省钱,要么咬牙烧钱用顶级模型保效果。问题也就在摆在眼前——要效果,还是要成本?
小孩子才做选择,大人全都要。
就在今天上午,火山引擎在武汉的 FORCE LINK AI 创新巡展上,一口气发布了四款新品:
全新升级的豆包大模型 1.6 原生支持 4 档思考长度调节,豆包 1.6 lite 腰斩成本还能提升效果,还有豆包语音合成模型 2.0 和声音复刻模型 2.0。
根据 IDC 报告,2025 年上半年中国公有云大模型服务市场里,火山引擎拿下 49.2% 的份额,稳坐第一。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图2
什么概念?每两个用云端大模型的企业,就有一个在用火山引擎。
今天发布会上提到,深度思考模式虽然能让效果提升 31%,但因为延迟、成本和 token 消耗的暴涨,实际使用占比只有 18%。说白了,企业想用,但真烧不起。
针对这个痛点,今天全新升级的豆包大模型 1.6 提供了 Minimal、Low、Medium、High 四档思考长度。
这是国内首个原生支持「分档调节思考长度」的模型。
怎么理解?就是给 AI 装了个「变速器」:简单查询用 Minimal 档省 token,复杂推理切 High 档保效果。企业可以根据场景灵活平衡效果、时延和成本,思考效率还进一步提升了。
拿低思考档举例。相比升级前的单一思考模式,总输出 tokens 直接砍掉 77.5%、思考时间暴降 84.6%。
效果呢?保持不变。
此外,火山引擎还推出了豆包大模型 1.6 lite,相比旗舰款更轻量、推理速度更快。
效果层面,这个模型超越豆包 1.5 pro,在企业级场景测评中提升 14%。成本层面,在 0-32k 输入区间里,综合使用成本较豆包 1.5 pro 狂降 53.3%。效果更好,成本腰斩。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图3
「单位 token 价值密度」的提升,本质上就是让每一分钱都花在刀刃上。
大会上,火山引擎还发布了豆包语音合成模型 2.0 和声音复刻模型 2.0。比起什么情感表现力更强、指令遵循更精准,更值得关注的是——它们终于能准确朗读复杂公式了。

如果你家有孩子在上学,你肯定遇到过这种情况:

用 AI 辅导作业时,遇到复杂的数学公式或化学方程式,AI 要么读错、要么读得磕磕巴巴,孩子听着一脸懵,你在旁边听着也想砸手机。

现在,新发布的两大语音模型针对性优化后,在小学到高中全学科的复杂公式朗读中,准确率直接飙到 90%。发布会上的演示也让我印象深刻。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图4
据悉,这背后是基于豆包大语言模型研发的全新语音合成架构,让合成和复刻的声音都具备深度语义理解能力,还拓展出上下文推理功能。
AI 不再无脑把文字转成声音,而是先「理解」内容,再进行「精准情感表达」。用户可以通过自然语言精准调整语速、情绪、声线、音调、风格变化,语音可控性直接拉满。
想要温柔一点?「来点温柔的感觉」。想要激昂一些?「读得激动点」。
在今天的发布会现场,火山引擎总裁谭待指出了全球 AI 大模型的三大发展趋势:深度思考模型正与多模态理解能力深度融合,视频、图像、语音模型逐步达到生产级应用水平,企业级复杂 Agent 正在走向成熟。
等等,我们停一下。
那么当模型越来越多,面对具体需求时如何选择最有性价比的模型?这可能是很多企业的灵魂拷问。
火山引擎发布了智能模型路由(Smart Model Router),据介绍,这还是国内首个针对模型智能选择的解决方案。
即日起,你可以在火山方舟上选择「智能模型路由」功能。该功能支持「平衡模式」、「效果优先模式」和「成本优先模式」三种方案,能针对任务请求自动选择最合适的模型。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图5
为什么需要这个?
因为不同任务对 token 的「价值密度」需求完全不同。客服系统回答「怎么退货」,用轻量级模型就够了。但医疗诊断分析病例,必须调用最强模型。
虽然 token 消耗相同,价值密度却天差地别。智能模型路由的本质,就是让 AI 自己判断「这个任务值得烧多少 token」。
而且,独乐乐不如众乐乐。目前,火山引擎智能模型路由已支持豆包大模型、DeepSeek、Qwen、Kimi 等多种主流模型。
当模型选择本身也被 AI 接管时,整个行业就形成了一个正反馈循环:
更强的模型能力解锁新的应用场景 → 新应用的爆发推高 token 消耗量 → 消耗量的增长倒逼智能路由不断优化 → 路由优化进一步降低单位成本 → 成本下降释放更多需求弹性 → 需求的释放又推高整体消耗。
这让人想起 1882 年,当爱迪生建成世界第一座商用发电厂时,没人能预见「千瓦时」这个单位会催生整个现代工业体系。
现如今,token 正在成为 AI 时代的「千瓦时」。包括前不久 OpenAI 公布的「万亿 token 俱乐部」名单、Google 每月燃烧的 130 万亿 token,也都印证着这股生产力的蓬勃涌动。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图6
当然,好模型只是起点,好体验才是最终目标。
当你问 AI 一个问题时,不应该再纠结是要快还是要好。分档思考让简单问题秒回且准确,复杂问题深度推理且高效。智能路由让你不用操心该选哪个模型,AI 会自己找最合适的。
用自然语言就能精准控制语音模型,而不是被一堆参数搞晕。模型技术的每一次迭代,最终目的都是让用户用得起、更要用得好。
这或许也是 AI 该有的样子。
刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场图7

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
音频
more
鸿蒙让好音乐始终在身边,华为音乐深度解析高品质音频密码
XR空间音频革命:苹果、三星推出新技术,ASAF成Vision Pro最佳搭档
AI玩具爆发,音频编解码器如何满足语音交互需求
2025年中国AI音频眼镜行业市场深度调查及投资前景预测报告
新机:小米16音频有大升级;vivoX300、红米K90将在10月发布;Find X9Pro搭载7500mAh+80W快充
你能永远陪我聊天吗?复旦&微软提出StableAvatar: 首个端到端无限时长音频驱动的人类视频生成新框架!
清华大学x生数科技:从波形到隐空间,AudioLBM引领音频超分新范式
【今晚七点开播!】音频稳压器发展趋势与特瑞仕新品发布!
突破无限时长!StableAvatar革命性框架获音频本质建模能力,数字人视频生成迎重大突破
BeDAViN:大规模音频-视觉数据集与多声源架构研究
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号