首个!阿里巴巴达摩院:世界模型+动作模型,给机器人装上「预言&执行」双引擎

深蓝具身智能 2025-07-09 10:56

如何让机器像人类一样,既能理解环境又能精准执行动作?传统机器人要么机械执行指令却不懂物理规律,要么能预测环境变化却无法自主决策。

阿里巴巴DAMO Academy联合湖畔实验室与浙江大学推出 WorldVLA——全球首个融合世界模型与动作模型的自回归系统

两者形成双向增强循环,这种协同改变了传统机器人“盲目执行指令”的局限。

本文将在剖析 VLA 与世界模型各自优势及局限性的基础上,系统阐释 WorldVLA 实现高效性能的核心机理,并结合代码示例展开细致梳理与解读。

我们开设此账号,想要向各位对【具身智能】感兴趣的人传递最前沿最权威的知识讯息外,也想和大家一起见证它到底是泡沫还是又一场热浪?
欢迎关注【深蓝具身智能】👇

VLA模型与世界模型的困境

当前机器人学习领域存在一个尴尬的局面:视觉语言动作(VLA)模型和世界模型各有所长,但也各有局限这种分离式的架构设计严重制约了机器人系统的整体性能。

VLA模型的优势与不足

VLA模型通过扩展大规模预训练的多模态大语言模型来实现机器人控制,代表性工作包括OpenVLA、π0等。这类模型的主要特点包括:

优势方面:

局限性方面:

世界模型的优势与局限

世界模型如iVideoGPT、DWS等专注于预测未来的视觉状态,能够学习环境的物理动力学。这类模型的特点是:

优势方面:

局限性方面:

图1 (a) 动作模型基于图像理解生成动作;(b) 世界模型基于图像和动作理解生成图像;(c) 动作世界模型统一了图像和动作的理解与生成。©️【深蓝具身智能】编译

1所示,传统的动作模型和世界模型各自独立工作,无法实现信息的双向流通。这就像一个人要么只会盲目行动,要么只会纸上谈兵。

现有的解决方案都无法同时具备理解环境物理规律和生成精准动作的能力。

动作序列生成的核心挑战

除了模型架构的局限性,研究团队还发现了一个更深层的技术难题:动作序列生成中的错误累积问题

表1 不同动作和视频生成模型的比较。T:文本;V:视频;A:动作。©️【深蓝具身智能】编译

当需要生成多个连续动作时(action chunking),传统的自回归模型会出现严重的性能退化:

这个问题在机器人需要执行复杂、多步骤任务时尤为突出,严重制约了实际应用。

统一的自回归动作世界模型

WorldVLA的核心创新在于提出了一个统一的自回归框架,将动作模型和世界模型有机融合,实现了真正的双向理解和生成。

统一建模架构设计

图2展示了WorldVLA的整体架构。

图2 WorldVLA概览。WorldVLA集成了两个不同但互补的功能组件:动作模型和世界模型。动作模型负责基于文本和视觉数据生成动作。世界模型的功能是通过利用文本信息、当前图像和当前动作来预测后续的环境状态(例如,下一个视觉帧)。©️【深蓝具身智能】编译

与传统方法不同,WorldVLA采用了一种“优雅”的设计方案:三种专用分词器的协同工作。

(1)图像分词器

(2)动作分词器

(3)文本分词器

关键设计理念 所有模态的token共享同一个词汇表,这样的设计使得在单一的大语言模型架构内就能实现跨模态的理解和生成统一。这种统一不仅是形式上的,更是语义层面的深度融合。

双向增强机制的实现

WorldVLA中的世界模型和动作模型不是简单的并列关系,而是通过精心设计实现了相互促进:

世界模型如何增强动作生成?

物理规律学习:通过预测未来状态,世界模型学习了环境的物理动力学,这种理解直接支持更准确的动作决策;

前瞻性模拟:能够评估不同动作的潜在结果,避免导致不良状态的动作;

动作理解深化:世界模型需要精确解释动作输入,这反过来增强了整体系统对动作语义的理解;

错误预防机制:通过预测可能的失败场景,提前调整动作策略。

动作模型如何增强视觉生成?

视觉理解增强:动作生成过程需要深度理解视觉场景,这种理解能力直接提升了图像生成质量;

行为模式学习:通过生成动作,模型学习了物体交互的典型模式;

注意力引导:动作焦点引导视觉生成关注关键区域;

时序一致性:动作序列确保了生成视频的时序合理性。

训练策略的创新设计

WorldVLA采用了混合训练策略,通过平衡不同任务的损失函数实现协同优化:

损失函数设计

其中:

  • :动作预测的交叉熵损失

  • :图像生成的交叉熵损失

  • α = 0.04:平衡系数,考虑到图像token数量远大于动作token

数据格式设计

动作模型数据:[BOS]{text}[BOI]{image}...[EOI][EOS][BOA]{action}...[EOA][EOS]

世界模型数据:[BOS]{text}[BOI]{image}[EOI][BOA]{action}[EOA][EOS][BOI]{image}[EOI][EOS]

这种统一的数据格式确保了模型能够在同一框架下处理不同类型的任务。

伪代码

# WorldVLA: 统一的自回归动作世界模型伪代码

 class WorldVLA:   def __init__(self):       # 初始化三个统一的分词器       self.image_tokenizer = VQGANTokenizer(codebook_size=8192)       self.text_tokenizer = BPETokenizer(vocab_size=65536)       self.action_tokenizer = DiscreteTokenizer(bins=256, dims=7)
       # 基于Chameleon初始化统一的transformer       self.transformer = ChameleonModel()
   def forward(self, mode='action_world'):       if mode == 'action':           return self.action_model()       elif mode == 'world':           return self.world_model()       else:           return self.unified_model()
   def action_model(self, images, text_instruction):       """动作生成:Text + Images → Actions"""       # Step 1: 编码输入       img_tokens = [self.image_tokenizer.encode(img) for img in images]       text_tokens = self.text_tokenizer.encode(text_instruction)
       # Step 2: 构建输入序列       input_seq = [BOS] + text_tokens + [BOI] + img_tokens + [EOI] + [EOS]
       # Step 3: 使用创新的注意力掩码生成动作       action_tokens = []       for i in range(action_chunk_size):           # 关键创新:掩蔽之前的动作,只关注文本和图像           attention_mask = self.create_action_mask(               mask_previous_actions=True,  # 防止错误累积               current_position=i           )
           # 并行生成当前动作token           next_token = self.transformer(               input_seq + action_tokens,               attention_mask=attention_mask           )           action_tokens.append(next_token)
       # Step 4: 解码为连续动作       actions = self.action_tokenizer.decode(action_tokens)       return actions  # [Δx, Δy, Δz, Δroll, Δpitch, Δyaw, gripper]
   def world_model(self, current_image, action):       """世界预测:Image + Action → Next Image"""       # Step 1: 编码输入       img_tokens = self.image_tokenizer.encode(current_image)       action_tokens = self.action_tokenizer.encode(action)
       # Step 2: 构建序列并预测       input_seq = [BOS] + [BOI] + img_tokens + [EOI] +                   [BOA] + action_tokens + [EOA] + [EOS]
       # Step 3: 自回归生成下一帧       next_img_tokens = []       for _ in range(image_token_length):           next_token = self.transformer(               input_seq + next_img_tokens,               attention_mask=self.create_causal_mask()  # 标准因果掩码           )           next_img_tokens.append(next_token)
       # Step 4: 解码为图像       next_image = self.image_tokenizer.decode(next_img_tokens)       return next_image
   def unified_model(self, images, text, actions=None):       """统一训练:混合动作模型和世界模型数据"""       # 动作模型损失       pred_actions = self.action_model(images, text)       L_action = CrossEntropy(pred_actions, gt_actions)
       # 世界模型损失       if actions is not None:           pred_next_image = self.world_model(images[-1], actions)           L_world = CrossEntropy(pred_next_image, gt_next_image)
       # 统一损失(α=0.04平衡两种损失)       L_total = L_action + 0.04 * L_world       return L_total
   def create_action_mask(self, mask_previous_actions=True, current_position=0):       """创新的注意力掩码策略"""       if mask_previous_actions:           # 当前动作只能看到文本和图像,不能看到之前的动作           # 这防止了错误在动作序列中传播           mask = torch.ones(seq_len, seq_len)           mask[action_positions, previous_action_positions] = 0       else:           # 标准因果注意力掩码           mask = torch.tril(torch.ones(seq_len, seq_len))       return mask# 训练流程def train_worldvla():   model = WorldVLA()
   for batch in dataloader:       # 混合动作和世界模型数据       if batch.type == 'action_data':           loss = model.forward(mode='action', **batch)       elif batch.type == 'world_data':           loss = model.forward(mode='world', **batch)       else:           loss = model.forward(mode='action_world', **batch)
       optimizer.step(loss)# 推理示例def inference_example():   model = WorldVLA()
   # 场景:机器人执行"打开抽屉"任务   images = capture_stereo_images()  # 获取当前观察   instruction = "Open the middle drawer"
   # 1. 生成动作序列(并行生成,避免错误累积)   actions = model.action_model(images, instruction)
   # 2. 预测执行后的世界状态   predicted_next_state = model.world_model(images[-1], actions[0])
   # 3. 基于预测调整后续动作(闭环控制)   if not is_drawer_opening(predicted_next_state):       actions = model.refine_actions(images, predicted_next_state)
   return actions


注意力掩码策略

错误累积问题的深度分析

研究团队通过大量实验发现,在自回归生成多个连续动作时会出现严重的错误累积现象,图6所示。

图6 动作块长度的消融研究。©️【深蓝具身智能】编译

随着动作序列长度的增加,成功率急剧下降:

问题根源分析

创新的注意力掩码解决方案

WorldVLA提出了一种巧妙的注意力掩码策略,如图3所示。

图3 注意力掩码机制:(a) 默认动作模型,(b) 我们提出的动作模型,(c) 世界模型。©️【深蓝具身智能】编译

传统方法(图3a)

WorldVLA方法(图3b)

效果对比

这种设计的精妙之处在于,它既保留了自回归模型的优势,又避免了其在动作生成中的固有缺陷。

实验验证

LIBERO基准测试

表2展示了WorldVLA在LIBERO基准测试上的表现。

表2 LIBERO基准测试的评估结果。预训练表示模型在大规模机器人操作数据上进行了预训练。RetryClaude can make mistakes. Please double-check responses.©️【深蓝具身智能】编译

LIBERO包含了多种具有挑战性的机器人任务:

性能提升分析

整体性能

256×256分辨率:平均成功率79.1%,超越OpenVLA的76.5%

512×512分辨率:平均成功率81.8%,展现了高分辨率的优势

任务类别表现

Spatial任务(空间关系):87.6%成功率

Object任务(物体识别):96.2%成功率

Goal任务(程序学习):83.4%成功率

Long任务(长程任务):60.0%成功率,相比基线提升显著

与连续动作模型对比

虽然连续动作模型如OpenVLA-OFT达到了95.4%的平均成功率,但WorldVLA作为离散模型能达到81.8%已经非常出色,且具有更好的可解释性和稳定性。

消融实验的深入分析

表3 动作模型的消融研究。©️【深蓝具身智能】编译

世界模型的贡献(行2 vs 行1)

平均成功率从62.8%提升到67.2%,证明了世界模型对动作生成的增强作用。

注意力掩码的效果(行4 vs 行3)

从54.0%大幅提升到76.6%;解决了动作块生成的核心难题。

组合效果(行5)达到78.1%的最高成功率;证明了各组件的协同效应。

可视化对比分析

(1)图4展示了作生成的可视化对比:

图4 动作模型的可视化。上方:动作模型。下方:我们的动作世界模型。©️【深蓝具身智能】编译

任务:将奶油奶酪放入碗中

上排(普通动作模型)机器人直接移动到目标位置,但未能成功抓取奶酪

下排(WorldVLA)机器人会反复尝试抓取,确保成功后才移动到目标位置

任务:将酒瓶放在柜子顶部

普通模型经常出现抓取失败或定位不准的问题

WorldVLA展现了更稳定的抓取和精确的放置能力

这种差异体现了WorldVLA对环境物理规律的理解。

(2)图5展示了世界模型生成效果的对比:

图5 世界模型的可视化。上方:世界模型。下方:我们的动作世界模型。©️【深蓝具身智能】编译

三个典型失败场景

1. 打开抽屉任务:纯世界模型无法正确模拟抽屉打开的过程

2. 推动盘子任务:物体在移动后神秘消失

3. 放置碗任务:无法正确预测抬起动作的结果

WorldVLA在所有这些场景中都生成了物理合理、视觉连贯的预测结果。

实验结果分析

表4展示了世界模型的定量评估结果:

表4 世界模型的消融研究。©️【深蓝具身智能】编译

表5析了历史图像输入数量的影响:

表5 历史图像输入长度的消融研究。©️【深蓝具身智能】编译

7比较了世界模型与视频预测模型:

图7 动作世界模型与动作视频预测模型的比较。©️【深蓝具身智能】编译

WorldVLA高效的原因

架构设计的根本优势

WorldVLA的成功源于多个创新设计协同作用的结果:

(1)统一框架的优势:

信息无损传递:避免了信息在不同模型间传递时的损失和失真;

参数共享高效:相比分离的模型,参数利用率更高,计算效率提升;

模态间深度交互:不同模态在同一表示空间内实现真正的语义融合;

端到端优化:整个系统可以进行联合优化,避免了次优解。

(2)预训练知识的充分利用 

WorldVLA基于Chameleon模型初始化,这带来了几个关键优势:

继承了强大的多模态理解能力;

即使经过机器人数据的密集微调,仍保留了目标检测等预训练能力;

为零样本和少样本学习奠定了基础。

训练策略的精妙平衡

(1)混合训练的优势:

世界模型数据帮助学习物理规律;

动作模型数据提升任务执行能力;

两种数据的交替训练实现了能力的相互增强;

损失函数的精心平衡确保了训练稳定性。

(2)数据效率的提升: 

通过共享表示和联合训练,WorldVLA能够从有限的数据中学到更多:

每个样本同时贡献于多个学习目标;

不同任务间的知识迁移更加高效;

减少了对大规模标注数据的依赖。

注意力机制的创新应用

注意力掩码策略的成功揭示了一个重要原则:不是所有信息都是有益的

通过选择性地屏蔽可能有害的信息(之前的动作),反而能够获得更好的性能。这种"less is more"的设计理念值得在其他领域推广。

总结

WorldVLA首次实现了动作和图像理解与生成的真正统一,打破了传统的模块化界限;解决了动作序列生成的错误累积问题,提出了实用的注意力掩码策略。

这项工作的意义在于,它不仅解决了一个具体的技术问题,更重要的是提出了一种新的思路——通过统一建模来实现不同AI能力的相互增强。

编辑|JeffreyJ

审编|具身君


论文信息

标题:WorldVLA: Towards Autoregressive Action World Model

作者:Jun Cen, Chaohui Yu , Hangjie Yuan, Yuming Jiang, Siteng Huang, Jiayan Guo, Xin Li, Yibing Song, Hao Luo, Fan Wang, Deli Zhao, Hao Chen

代码地址:https://github.com/alibaba-damo-academy/WorldVLA

论文地址:https://arxiv.org/pdf/2506.21539


图片【深蓝具身智能读者群】-参观机器人
欢迎各位粉丝朋友,加入深蓝具身君的读者群,具体参观开放日时间将在群内陆续通知。
扫下方二维码,添加具身君;通过验证后,加入群聊:

我们开设此账号,想要向各位对【具身智能】感兴趣的人传递最前沿最权威的知识讯息外,也想和大家一起见证它到底是泡沫还是又一场热浪?‍

欢迎关注【深蓝具身智能】👇

1、顶会突破!推荐RSS 2025 的8篇力作:聚焦VLA 革新、机器人操纵两大重点领域创新!
2、双杀!具身VLA硬核解析:国内2篇「互补性」工作,成功打破传统自回归范式!
3、CVPR 2025 workshop冠军!中科院&字节:仅用3个示范轨迹,达到96.8%成功率!

【深蓝具身智能】的原创内容均由作者团队倾注个人心血制作而成,希望各位遵守原创规则珍惜作者们的劳动成果,转载添加下方微信进行授权,发文时务必注明出自【深蓝具身智能】微信公众号,否则侵权必究⚠️⚠️


投稿|寻求合作|研究工作推荐:SL13126828869


点击收藏并推荐本文

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
机器人
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号