小米AI语音新框架:人人都能当声音导演

量子位 2026-04-08 12:00
小米大模型应用团队 投稿
量子位 | 公众号 QbitAI

语音合成大家都不陌生,这两年市面上各种AI配音也层出不穷。

but,真在实际场景应用起来,还是会面临一箩筐问题——

举个栗子,想把小说做成有声书,但配出来的声音怎么听都感觉很生硬,而且口语表达效果也是个大问题。

此外,像播客这种配音场景,光配音环节就要折腾大半天,合成音频时也会面临各种合成的bug!!!

也正因如此,面对传统语音合成的种种局限问题,小米大模型应用团队提出了——

Midasheng-audio-generateXiaomi Any2Speech两大真实世界音频生成框架。

小米AI语音新框架:人人都能当声音导演图1

在模型能力上,两个模型分别支持「沉浸式音频生成」与「无边界长音频合成」。

通过大模型对角色设定、情绪变化以及整体声学场景的统一建模,让AI能够真正理解一段自然场景下的音频应该如何呈现。

在这样的生成方式下,声音不仅能够被合成还原出来,还能一体式构建出来~

这下好了,人人都能当声音导演的时代来了??

Xiaomi Any2Speech:让每个人成为声音导演

传统TTS技术的评判标准一直很直白,那就是模型能不能念好一句话,把每个字读清楚。

而Xiaomi Any2Speech的核心突破,就是让AI不再只懂念字儿,而是学会理解声学空间叙事逻辑,真正拥有了导戏的能力。

小米AI语音新框架:人人都能当声音导演图2

具体来说,在播客、相声、辩论、脱口秀等多种语音对话节目生成中,Xiaomi Any2Speech都表现出了极高的可用性和真实性:

话不多说,直接来听听下面这段由模型生成的罗永浩×豆包辩论的AI效果:

模型能懂声音、会叙事,说话还自然流畅,核心靠的当然是一套全新的技术创新能力:

首先,就是能让模型理解声学空间与叙事逻辑的「Global-Sentence-Token(GST)」标注体系。

具体来说,Global层级定全局,把控场景定位、说话人画像、整体的情绪走向;而Sentence层级管局部,调整每一句话的语气、语速、表达意图,适配当下的背景状态。

Token层级抠细节,精准处理重音、多音字,甚至是笑声、呼吸声这类贴近真人表达的小细节。

三层配合,让AI对声音的理解更到位~

小米AI语音新框架:人人都能当声音导演图3

其次,是模型使用的Labeling over Filtering的技术思路,可以说也是反着传统TTS的玩法来的。

大家都知道以往做TTS训练时,其实都会刻意过滤掉嘈杂数据,比如多人重叠的声音、录音质量参差的素材,只留干净的音频做训练,觉得这些杂数据会影响效果。

而Labeling over Filtering的思路,则选择保留传统TTS摒弃的嘈杂数据——

通过GST标注体系将其转化为训练燃料,使模型学会从人声背景中泛化纯音效(如磁带损坏感、旧广播感)。

这样的好处很直接,那就是模型自己能学会从复杂的人声背景中提炼、泛化出各种特色声学效果~

不仅如此,在CoT思维链合成方面,模型还基于全局指令进行深度「推理」,理解场景氛围与情绪走向,再生成音频,这样一来比传统TTS更贴合场景、更有感染力。

小米AI语音新框架:人人都能当声音导演图4

在具体的架构设计上,Xiaomi Any2Speech采用了双路拆分+维度Dropout的思路。

把传统TTS理解与发声合并的黑盒过程,拆解成了可追溯、可干预的步骤,让创作过程的可控性大幅提升。

小米AI语音新框架:人人都能当声音导演图5

也正因如此,Xiaomi Any2Speech在实际落地中,不管是多人分角色对话的塑造、背景环境与人声的融合建模,还是长文本的连贯处理、剧本结构的理解,都展现出了远超传统TTS的能力。

让音频创作不再是专业人士的专属,普通人也能轻松上手做出高质量的声音内容。

Midasheng-audio-generate:声画同频的沉浸式音频世界

相较于Xiaomi Any2Speech的长音频合成能力,Midasheng-audio-generate的模型则更强调——

用一句话实现包括人声、场景音效、音乐等的「全场景声音」重建还原。

具体来说,模型在音频合成上的亮点主要包括以下几个方面:

再来听听下面这个「黑色电影侦探在雨中的独白」合成效果如何:

能实现真实沉浸感的声音效果,背后靠的则是Midasheng tokenizer技术在支持。

具体来说,基于Midasheng tokenizer,模型用Flow Matching作为主体框架来接收文本指令,驱动背后的全能编码器,直接合成包含语音、音乐、音效的复杂混合音频。

小米AI语音新框架:人人都能当声音导演图6

OMT

在一些官方展示和实测的效果case进行分析中,还可以看到两个模型所提出的新语音范式,也确实极大改变了语音合成的应用场景与使用思路。

最直观的例子就是在脱口秀场景中,深夜开放麦风格的演出里,起哄声与包袱抖出后观众的共鸣笑声能自然呼应。

再比如在武侠广播剧场景中,江湖夜雨、刀光剑影的氛围配合人物对白与环境音效,营造出沉浸式的武侠世界。

在原始输入中,不用像传统TTS一样标注明确的观众笑点、起哄声或者鼓掌声,模型均可以根据上下文语意自然推断,形成呼应,说明模型「场景语义」有深刻的建模理解。

模型通过语速、音量、混响的协同变化,可直接塑造角色压迫感与空间紧张感,省去传统配音中单独配乐的环节。

同时,语气词、拖音、断句节奏也不再是合成瑕疵,而是传递人物气质的重要介质,借由声音侧写,呈现与内容高度契合的人物人格。

而所有场景共享同一个自然语言instruction接口,一句话描述你想要的效果,无需切换模型或pipeline就能实现。

当模型能够基于语义自动生成情绪、环境与互动反馈,声音合成也就逐渐成为内容生产的一部分,甚至是内容本身。

可能未来的语音生成,不再需要复杂的多轨配音流程了,也不再依赖精细的人工标注,而是通过自然语言直接驱动完整的声音场景生成。

参考链接:

【Xiaomi Any2Speech相关链接】

[1]项目地址:https://Any2Speech.github.io/

[2]Openclaw技能:https://clawhub.ai/whiteshirt0429/xiaomi-Xiaomi Any2Speech-beyondtts

【Midasheng-audio-generate相关链接

[1]Demo:https://nieeim.github.io/Dasheng-AudioGen-Web/

[2]Openclaw技能:https://clawhub.ai/jimbozhang/midasheng-audio-generate

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 小米
more
Intel发布锐炫Pro B70/B65工作站显卡,Battlemage架构聚焦专业与AI市场
红果短剧强化AI内容治理,一季度下架违规漫剧超1700部
中国AI治理:发展与安全,如何兼得?
戴尔CEO预警:2028年AI内存需求将暴增625倍,供应缺口或持续至本十年末
OpenAI 心中的「硅谷社会主义」,到底什么样?
谷歌悄然推出离线优先语音转写应用“Google AI Edge Eloquent”,剑指专业转录市场
面向AI的SSD,彻底火出圈
刚刚,Anthropic首超OpenAI!暴买谷歌TPU,Claude杀疯了
OpenAI发布“智能时代”经济政策框架,呼吁重构财富分配与劳动保障体系
AI数据中心运营商Firmus获5.05亿美元融资,估值达55亿美元
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号