创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型

机器之心 2026-03-23 12:03
创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型图1
机器之心编辑部

开源多模态生成领域,迎来架构级的底层突破。


视频生成已成为当前生成式 AI 最前沿的方向,但在音视频联合同步生成领域,开源界仍面临三重局限:



今日,由上海创智学院(SII)生成式人工智能研究实验室(GAIR)与 Sand.ai 联合研发的 daVinci-MagiHuman 正式开源发布,打破了开源界的这三重局限。


作为演绎级人像音视频的开源基座模型,daVinci-MagiHuman 以 150 亿参数的单流 Transformer 为核心,实现了文本、视频、音频在统一骨干网络下的联合建模,彻底告别了跨注意力和模态专属分支。




研发团队介绍


这一成果由上海创智学院(SII)GAIR 实验室 与 Sand.ai 共同完成。


上海创智学院是由顶尖大学、头部企业和科研机构联合建设的新型人才培养机构;其 GAIR 实验室由刘鹏飞博士领导,聚焦生成式人工智能的前沿研究,涵盖多模态视频基座模型、文本大模型预训练及智能体构建等方向。在多模态世界模型方面,实验室已展开了系统性探索:从开源首个原生无扩散的多模态模型 Anole,到提出以生成图像进行思考的新范式 Thinking with Generated Images,再到面向实时交互场景的 LiveTalk,以及面向数字世界理解与模拟的数字基因工作,逐步构建起从多模态生成、视觉推理到实时交互的完整研究链条。近期,该实验室已产出 daVinci-MagiHuman、Data Darwinism、daVinci-Agency、daVinci-Dev 等一系列代表性工作。



Sand.ai 则是由马尔奖得主曹越博士所创立,专注于开发视频生成大模型,并以推动通用人工智能(AGI)为目标。先后发布全球首个自回归视频生成模型 Magi-1,以及主打「AI 演员」表现力的 GAGA-1 模型,在物理规则连贯性和原生音画同步等领域都取得了突破性成果。


演绎级人像音视频的开源基座模型


daVinci-MagiHuman 是音视频联合生成的开源基座模型。与许多依赖多流结构、跨注意力模块或模态专用融合分支的方案不同,daVinci-MagiHuman 采用了更为简洁的单流 Transformer 架构,以 150 亿参数的统一骨干网络联合建模文本、视频与音频三种模态,彻底告别跨注意力和模态专属分支。这一设计不仅降低了系统复杂度,也让训练与推理优化更加直接、统一。


在能力上,daVinci-MagiHuman 尤其擅长以人物为中心的生成任务,能够生成富有表现力的面部表情与自然语音,并实现精确的音视频同步,覆盖语音与口型协调、表情驱动、动作表现等场景。同时,模型具备较强的多语言泛化能力,支持中文(普通话与粤语)、英文、日文、韩文、德文、法文等多种语言的音视频生成。


在推理效率方面,daVinci-MagiHuman 结合单流骨干网络、隐空间超分辨率与 Turbo VAE 解码器,在单张 H100 上仅需 2 秒即可生成 5 秒 256p 视频。在与 LTX-2.3、Ovi 1.1 的全面对比中,daVinci-MagiHuman 在成对人工评测中取得了 70.5% 的综合胜率,在客观基准上同样展现出领先表现。


核心技术揭秘:单流 Transformer 统管所有模态


创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型图2


为了解决上述挑战,daVinci-MagiHuman 选择了一条更直接的路线:把文本、视频、音频统一放入同一个单流 Transformer 去噪网络中,以纯自注意力完成联合建模。在这一基础上,模型进一步采用了几项关键设计:


面向效率的四层优化


除了去噪网络本身的先进设计,daVinci-MagiHuman 还围绕推理效率进行了系统级优化。


1. 隐空间超分


为了避免从头直接生成高分辨率视频带来的巨大开销,研发团队采用两阶段流水线:底模先在较低分辨率生成音视频隐变量,再通过隐空间超分对视频结果进行细化。整个超分过程直接在隐空间(latent space) 中完成,通过三线性插值、重新加噪和少量额外去噪步骤完成高分辨率细化,效果更好的同时避免额外的 VAE decode/encode 开销。


值得一提的是,这一阶段虽然主要服务于视频细化,但音频隐变量也会继续作为输入进入超分模型,并与视频一起在同一主干中联合建模。这种设计在底模分辨率较低、口型细节容易偏差的情况下尤其重要,有助于保持更好的唇形同步效果。


2. Turbo VAE Decoder


在视频编解码阶段,模型保留 Wan2.2 VAE 作为编码器,但在推理中使用更轻量的 Turbo VAE 解码器替换原始解码器,以降低视频解码延迟。由于解码位于底模生成和超分流水线的关键路径上,这一优化对整体推理速度非常重要。


3. 全图编译优化


研发团队进一步将自研的全图 PyTorch 编译器 MagiCompiler 集成到推理栈中。通过跨层算子融合、减少分布式通信开销等方式,它能够进一步提升推理吞吐与执行效率,并在 H100 上带来了约 1.2 倍的加速。


4. 模型蒸馏


研发团队还使用 DMD-2 技术对去噪网络进行蒸馏,从而实现了在推理阶段仅去噪 8 步就可以获得良好的音视频生成效果。


性能实测:全面对标开源 SOTA


先看实测效果:








研发团队针对 LTX-2.3、Ovi 和 MoVA 等最具代表性的开源模型进行了系统性测试。


主观评测:人工盲评


研发团队构建了 100 条样本的内部评测数据集,覆盖图文生音视频任务,由评审员从多个维度对各模型的生成结果进行盲评打分。


创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型图3


客观评测:VideoScore2 基准和 TalkVid-Bench 对比


VideoScore2 主要用来评测视频生成质量,其采用的指标包括视频生成质量(Visual Quality)、视频 - 文本一致性 (Text Alignment) 和物理一致性(Physical Consistency)。TalkVid-Bench 则主要用来衡量音频生成质量,其指标主要用词错误率(Word Error Rate, WER) 来衡量。 表 2 展示了客观指标的评测结果,daVinci-MagiHuman 在视觉质量、视频 - 文本一致性都领先于 LTX2.3,在物理一致性上与 LTX2.3 大致相当,优于 OVI 1.1。在音频质量上,daVinci-MagiHuman 则远优于 LTX2.3 与 OVI 1.1。


创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型图4


结语与未来展望


此次 daVinci-MagiHuman 的模型栈完整开源,包括生成模型、超分模型以及推理代码。这一发布有望能够为开源社区提供一个更简单、更可扩展、也更易于优化的音视频生成基础系统,持续降低音画同出大模型的开发与部署门槛,为 AI 社区贡献真正 “开箱即用” 的性能红利。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 开源
more
WordPress.com 全面开放 AI 代理写入权限,网站内容生产迈入人机协作新阶段
亚马逊重启智能手机项目,代号“Transformer”聚焦AI与Alexa深度整合
微信推官方龙虾插件;雷军:正在开发电脑版龙虾;Reddit 大量招应届生,因是 AI 原生一代 | 极客早知道
蓝色起源拟发射超5万颗卫星构建轨道数据中心,太空AI算力竞赛升温
画质革命还是AI整容?DLSS 5引爆全网争议,老黄亲自下场论战
刚刚,美国把天眼交给Palantir!绝密信件曝光: AI拿到美军正式编制
Token是词元,Prompt是文令:是时候给AI配得上这个时代的中文了
德国总理试戴的中国AI眼镜,悄悄拿下全球第一
库克:AI是对人能力的放大,而非取代人;月之暗面回应 Cursor 套壳 Kimi K2.5;曝 ChatGPT 广告测试推进缓慢|极客早知道
创智刘鹏飞、Sand.ai曹越,两大AI青年学者团队联手,开源音视频基座模型
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号