达摩院最新!RynnVLA-002:统一VLA与世界模型

具身智能之心 2025-11-25 08:00

在机器人操控领域,“精准响应指令、预判环境变化、稳定执行动作” 始终是核心挑战——现有视觉 - 语言 - 动作(VLA)模型缺乏对物理规律的理解与未来场景的想象,而世界模型虽能预测环境动态,却无法直接生成执行动作。

阿里巴巴达摩院、湖畔实验室等团队联合提出的RynnVLA-002,以 “VLA 模型与世界模型双向增强” 为核心思路,通过统一多模态编码、创新动作生成机制,在模拟与真实场景中均实现性能突破:无预训练状态下,LIBERO 模拟基准成功率达 97.4%;真实机器人实验中,世界模型的融入使整体成功率提升 50%,彻底打通 “感知 - 理解 - 行动 - 预测” 的全链路。

RynnVLA-002 官方代码库:https://github.com/alibaba-damo-academy/RynnVLA-002

为什么需要统一 VLA 与世界模型?

现有机器人决策方案陷入 “单向能力瓶颈”,核心问题可归结为 “无法同时兼顾动作生成、环境理解与未来预测”,两类主流方案的缺陷尤为突出:

方案类型
代表思路
核心缺陷
传统 VLA 模型
直接映射视觉 - 语言输入到动作
1. 动作仅作为输出,无法形成动态内部表征;2. 缺乏未来场景想象能力,难以进行反事实推理;3. 不理解物理规律,无法掌握物体交互、稳定性等关键信息
独立世界模型
基于当前状态预测未来视觉观测
1. 仅能生成场景预测,无法直接输出执行动作;2. 缺乏与实际任务的衔接,难以支撑明确的动作规划

RynnVLA-002 的创新在于发现 “双向增强” 逻辑:世界模型通过学习物理动态,可优化 VLA 模型的动作生成精度;而 VLA 模型的视觉理解能力,能提升世界模型的场景预测保真度。两者的统一框架,恰好弥补了各自的核心短板,如图 1 所示,传统 VLA 模型仅能实现图像理解与动作生成,世界模型仅能完成图像理解与图像生成,而 RynnVLA-002 的动作世界模型实现了图像与动作的双向理解和生成。

达摩院最新!RynnVLA-002:统一VLA与世界模型图2

RynnVLA-002:如何实现 “感知 - 行动 - 预测” 三位一体?

RynnVLA-002 的核心设计可概括为 “统一多模态编码 + 双向增强架构 + 混合动作生成”,既通过共享词汇表打破模态壁垒,又借助双模型协同实现能力互补,具体分为三大核心组件与关键技术:

核心组件 1:多模态统一编码——打破视觉、语言、动作的信息壁垒

RynnVLA-002 采用四类 Tokenizer(图像、文本、状态、动作),将所有模态信息编码为统一词汇表(规模 65536),实现单 LLM 架构下的跨模态理解与生成:

  • 图像 Tokenizer:基于 VQ-GAN 模型,为 256×256 图像生成 256 个令牌,512×512 图像生成 1024 个令牌,通过感知损失优化特定区域识别;
  • 文本 Tokenizer:采用训练后的 BPE 分词器,处理任务指令(如 “将草莓放入杯子”);
  • 状态 / 动作 Tokenizer:将机器人本体状态与连续动作离散化为 256 个区间,同时保留连续动作的原始生成路径。

这种设计使模型能同时处理 “视觉观测(图像)- 任务指令(文本)- 执行动作(动作令牌)- 设备状态(状态令牌)”,为双向增强提供数据基础,模型整体架构如图 2 所示。

达摩院最新!RynnVLA-002:统一VLA与世界模型图3

核心组件 2:双向增强架构 ——VLA 与世界模型的协同闭环

架构通过双模型互促,实现 “动作生成更精准、场景预测更可靠”,核心逻辑如下:

  • VLA 模型:基于语言目标、历史观测与本体状态,生成连续或离散动作序列,公式定义为:,其中l为任务指令,为前一状态,为历史观测;
  • 世界模型:基于过往观测与动作,预测下一帧视觉场景,公式定义为:
  • 双向增强机制:VLA 模型的视觉理解能力提升世界模型的场景预测精度,世界模型学到的物理动态规律优化 VLA 模型的动作规划逻辑,训练时通过混合两类模型数据,实现参数共享与能力协同。

核心组件 3:混合动作生成——兼顾离散精度与连续泛化

针对传统动作生成的 “误差累积” 与 “泛化不足” 问题,RynnVLA-002 设计双轨生成机制:

离散动作生成(模拟场景优化)

引入动作注意力掩码策略,使当前动作仅依赖视觉 - 文本输入,不依赖前序动作,避免误差传播:

  • 传统掩码:动作生成依赖前序动作,易导致错误累积;

  • 创新掩码:屏蔽前序动作干扰,每个动作独立基于原始输入生成,大幅提升长序列动作的连贯性,三种模型的注意力掩码对比如图 3 所示。

达摩院最新!RynnVLA-002:统一VLA与世界模型图4

连续动作生成(真实场景优化)

新增Action Transformer 头,解决离散模型的泛化与速度问题:

  • 优势 1:并行解码机制,推理速度远超串行 autoregressive 生成;
  • 优势 2:架构更紧凑,在有限真实数据上不易过拟合,泛化能力更强;
  • 优势 3:生成轨迹更平滑,避免机器人动作抖动,提升真实场景成功率。

训练时通过混合损失函数优化:,其中为离散动作交叉熵损失,为图像生成损失,为连续动作 L1 回归损失。

实验结果:模拟与真实场景的双重突破

RynnVLA-002 在 “模拟基准 + 真实机器人” 双场景中验证了有效性,核心表现可概括为 “无预训练也能打、真实场景泛化强、双向增强显成效”:

模拟场景:LIBERO 基准的极致性能

在 LIBERO 四大任务 suite(空间关系、物体操控、目标达成、长序列任务)中,无预训练状态下:

  • 连续动作版本(RynnVLA-002-Continuous)平均成功率达 97.4%,其中空间任务 99.0%、物体任务 99.8%,远超各类有预训练的基线模型;

  • 离散动作版本平均成功率 93.3%,长序列任务成功率 87.6%,显著优于传统 VLA 模型,具体数据如表 1 所示。

达摩院最新!RynnVLA-002:统一VLA与世界模型图5

真实场景:LeRobot 机器人的实战验证

在 SO100 机械臂的两项真实任务中,RynnVLA-002 无预训练状态下表现亮眼,实验场景如图 4 所示:

达摩院最新!RynnVLA-002:统一VLA与世界模型图6
  • “将方块放入圆圈” 任务:多目标场景成功率 90%,含干扰物场景成功率 80%,超越 GR00T N1.5、等有预训练的基线模型;

  • “将草莓放入杯子” 任务:单目标场景成功率 80%,多目标场景成功率 80%,在精细操控场景中展现出强鲁棒性,具体对比数据如表 2 所示。

达摩院最新!RynnVLA-002:统一VLA与世界模型图7

关键消融验证:双向增强的核心价值

  • 世界模型提升 VLA 性能:模拟场景中,加入世界模型数据后,离散动作平均成功率从 62.8% 提升至 67.2%,连续动作从 91.6% 提升至 94.6%,如表 3 和表 4 所示;
达摩院最新!RynnVLA-002:统一VLA与世界模型图8
达摩院最新!RynnVLA-002:统一VLA与世界模型图9

真实场景中,无世界模型时成功率不足 30%,加入后突破 80%,如表 5 所示。

达摩院最新!RynnVLA-002:统一VLA与世界模型图10

如图 5 所示,无世界模型的模型无法成功抓取奶酪或瓶子,而联合训练的模型会在失败时反复尝试抓取目标物体。

达摩院最新!RynnVLA-002:统一VLA与世界模型图11
  • VLA 增强世界模型生成:融合 VLA 数据后,世界模型的视频预测指标全面优化,例如物体任务的 FVD 从 1141.6 降至 877.2,SSIM 从 59.59 提升至 65.03,如表 6 所示;
达摩院最新!RynnVLA-002:统一VLA与世界模型图12

如图 7 所示,基线世界模型无法预测到成功抓取碗的场景,且存在不同视角预测不一致的问题,而 RynnVLA-002 的动作世界模型能生成正确的抓取视频。

达摩院最新!RynnVLA-002:统一VLA与世界模型图13
  • 动作注意力掩码的作用:长序列动作生成中,掩码策略使成功率提升显著,尤其在 chunk 长度为 10 时,性能优势达 30% 以上,如图 6 所示。
达摩院最新!RynnVLA-002:统一VLA与世界模型图14

关键结论与未来方向

核心结论

  • 统一框架是关键:VLA 与世界模型的双向增强,解决了单一模型 “能做不能想” 或 “能想不能做” 的痛点,为机器人决策提供了更全面的能力支撑;
  • 动作生成机制适配场景:离散动作适合模拟场景的高精度需求,连续动作更适配真实场景的泛化与速度要求,混合设计实现 “场景全覆盖”;
  • 无预训练也能高效落地:不依赖大规模机器人预训练数据,降低了真实场景应用的门槛,为产业化落地提供便利。

未来方向

  • 多模态增强:引入触觉、声音等模态,提升复杂环境(如黑暗、柔性物体操控)的适应性;
  • 效率优化:进一步轻量化模型,降低实时性延迟,适配高动态场景;
  • 长序列任务深化:优化长 horizon 任务的记忆更新机制,减少噪声累积导致的性能下降。

总结

RynnVLA-002 的创新不在于单一模块的突破,而在于构建了 “感知 - 理解 - 行动 - 预测” 的闭环生态——通过统一编码打破模态壁垒,用双向增强激活双模型潜力,以混合动作生成适配不同场景。这种设计既实现了模拟场景的极致性能,又解决了真实场景的泛化难题,为机器人操控技术从 “实验室” 走向 “产业化” 提供了极具参考价值的范本。

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
达摩院
more
达摩院最新!RynnVLA-002:统一VLA与世界模型
阿里达摩院用 1200 万第一视角视频打底,新成果 RynnVLA-001 大幅碾压主流模型!
ICCV 2025 「阿里达摩院」相关论文|AnyI2V、LiON-LoRA、Preacher、StableDepth等
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号