“仿真是理解现实的一面镜子”
RoboTwin 2.0 与 Isaac Lab Mimic 类似,都是 “少量人工/规则 → 大规模自动生成 → 成功筛选 → HDF5 数据集” 的思路,但 RoboTwin 更强调 大规模、多样化、多平台。
1. 基础资源:RoboTwin-OD 对象库
规模:147 类、731 个对象实例。
来源:
Rodin 平台 RGB→3D 重建(534 个实例,111 类),后处理包括凸分解 + 网格合并 → 得到物理精确的碰撞模型。
Objaverse(153 个对象,27 类) → 主要作为“干扰物”增强视觉多样性。
SAPIEN PartNet-Mobility(44 个可动对象,9 类) → 供关节物体操作任务使用。
额外增强:
用 生成式 AI + 人工筛选 生成背景/表面纹理库 → 保证场景多样和逼真度。
语言描述:每个对象自动生成 15 条描述(形状、材质、功能、结构、细粒度等),人工审核后入库。
交互标注:关键点和轴线(抓取点、放置点、功能点、抓取轴方向) → 支持通用的抓取策略。
这些对象及其语义+几何标注是 生成通用操作任务数据 的基石。
2. Flexible Embodiment
RoboTwin 的设计是 对象中心、与具体机器人无关,任务逻辑和物体交互保持一致,可以投射到不同机器人。
支持的硬件:
机械臂:Franka、Piper、UR5、ARX-X5、Aloha-AgileX
夹爪:Panda Gripper、WSG Gripper 等
关键技术:集成了 Curobo GPU 加速运动规划器 → 在不同机器人几何约束下快速生成高成功率轨迹。
效果:同一任务可以在不同的双臂组合上执行(异构机械臂搭配、不同相对布局)。
这样保证了生成的数据集 跨硬件泛化,适配未来实机部署。
3. 任务生成与基准套件
RoboTwin 定义了 50 个双臂协作操作任务,覆盖放置、搬运、拼装、倒液体、交接物体等多类场景。
每个任务 = 对象集 + 子任务逻辑 + 成功条件,并可适配不同双臂机器人。
官方网站提供了任务清单与说明:http://robotwin-platform.github.io/doc/tasks/
这部分相当于 Isaac Lab Mimic 的 任务配置层。
4. 自动化数据生成流水线
数据生成过程可以总结为 五步循环:
1. 任务定义
选定任务 + 身体现(例如 UR5+Franka),加载对应的对象和环境。
2. 轨迹合成(Curobo + API)
根据对象 affordance 标注(抓取点、功能点),调用 Curobo 生成可行轨迹。
对象姿态、场景纹理、光照等可做 domain randomization。
3. 仿真执行
在仿真中执行轨迹,记录状态序列(位置、关节、EEF 姿态)+ 图像 + 动作命令。
4. 成功判定
通过布尔条件(物体到位、任务完成度)筛掉失败轨迹。
5. 存储
以 HDF5/标准格式存储:动作、观测、图像、语言描述、成功标志。
每个任务在每个平台下可以高效生成大量演示,不需要大量人工遥操作。
5. 数据规模与结构
总量:10 万+ 双臂操作轨迹
覆盖:50 个任务 × 5 种双臂机器人
每个任务-身体现对:
100 条 clean(无随机化)轨迹
400 条 domain randomized 轨迹
存储:开源在 HuggingFace:
https://huggingface.co/datasets/TianxingChen/RoboTwin2.0/tree/main/RoboTwin2_dataset
这样形成了一个 大规模、多任务、多机器人、多随机化层次的标准数据集,可用于 imitation / RL / VLA 训练与评测。
6. 与 Isaac Lab Mimic 的对比
Isaac Lab Mimic:依赖少量人工遥操作演示 → 子任务切分 → 几何拼接扩增。
RoboTwin 2.0:基于大规模对象库 + 自动运动规划 → 几乎全自动化生成(少人工标注)。
总结一句话
RoboTwin 2.0 的数据生成逻辑是 “对象库+affordance标注 → GPU规划器 → 多机器人任务适配 → 仿真回放筛选 → 大规模HDF5数据集”,保证了跨对象、跨机器人、跨任务的可扩展性与大规模性。

