一家灵巧手企业撕掉了“灵巧手”标签

高工人形机器人 2025-10-28 09:20
一家灵巧手企业撕掉了“灵巧手”标签图1

2025高工人形机器人年会

暨高工金球奖颁奖典礼

新游戏 新玩家 新规则

倒计时6天

一家灵巧手企业撕掉了“灵巧手”标签图2

“灵巧手不是终点,而是起点。”这是年内和灵巧智能CTO朱豪华的第三次对话,有意思的是,三次对话中,朱豪华都有意强调了类似的表述。但这一次,是我们第一次强烈感受到上述“起点”一说。


这种强烈感受,源于其历时近两年的一次数据集开源。IROS 2025开幕当天灵巧智能宣布开源其大规模多模态灵巧操作数据DexCanvas。


让资本、学术、产业三界同时侧目的是,这是全球首个系统性地将“力觉”纳入大规模人手操作数据的开源项目:7000小时、21类操作类型、物理一致的接触力与力矩标注,全部基于真实人类演示,并通过强化学习“反推”出每一条轨迹背后的物理规律。


这不仅是一次数据集的发布,更像是一场数据平权运动的开端——它首次将“力觉”这一关键维度大规模引入人手操作数据,并打破了行业长期以来的数据壁垒。


一家灵巧手企业撕掉了“灵巧手”标签图3


这场高调的官宣,把原本被贴上“灵巧手硬件厂商”标签的灵巧智能,推向了中国具身智能全栈技术能力牌桌的中心。


接踵而来的有两种声音,一是惊呼“这是灵巧手的ImageNet时刻”,二为质疑“该不会又是一堆烧钱的仿真垃圾”。


也是这些对立的声音,促成了我们和朱豪华的第三次对话——从DexCanvas的构想到落地,我们试图通过其个人视角的讲述,还原一个行业的挣扎与突破。




从遥操作到人手锚定,一次数据采集的自我革命


从ChatGPT到Sora,大模型已经用万亿级token证明:只要数据够多、够好、够通用,智能就会“涌现”。但当镜头从数字世界转向物理世界,机器人试图用五指完成人类最日常的抓、握、拧,同样的故事却迟迟无法复现。


一个业界共识愈发清晰:灵巧操作是具身智能的“最后一公里”,而数据是这条路上最稀缺的“石油”。


当前主流的灵巧手数据采集路径主要有三条,遥操作、视频学习与纯仿真。“我们最早也是采用遥操作的方式,后来发现这条路不适合我们。”采访伊始,朱豪华就直言不讳地指出了传统数据采集方式的瓶颈。


他深知高自由度灵巧手在数据层面的饥渴——不仅需要轨迹,还需要力;不仅要真实,还要规模,通用性以及可迁移这两点也不能落下。


“遥操作的问题在于效率太低,动作也不自然。”朱豪华回忆道,“我们曾用遥操作采集了数据,但发现手指的协调性很差,很多动作看起来‘不像人’。”


至于另外两种方式:视频学习的数据规模大,成本低,但无法获取力觉,且动作粒度粗;纯仿真的方式可扩展性强,但物理参数失真。


三条路径背后映射出的,正是机器人数据采集领域一个被反复提及的“不可能三角”:规模、真实性、力觉信息,三者只能取其二。于是,灵巧智能决定换一种方式,直接采集真人的手部数据。“人手操作是最自然、最通用的操作。”朱豪华强调。


这一转变,成为DexCanvas的“起点”。



“我们用亚毫米级光学动捕系统,系统性地采集人手在物理世界中抓握、操作物体的全过程。”朱豪华介绍,这套方案不仅捕捉手部轨迹,还同步记录物体的物理属性与手部接触信息。


DexCanvas的突破,在于它没有继续在“不可能三角”中选择,而是换了一个维度出击。


“力觉是‘反推’出来的。”朱豪华解释道。DexCanvas并非简单地堆数据,而是通过“真人动作捕捉 → MANO手部建模 → 强化学习物理反演”的技术路径,实现从1000小时真人数据到10万小时增强数据的飞跃。


这个过程即,DexCanvas首先通过动捕系统采集超过1000小时的真人操作数据,然后将这些数据输入到物理仿真环境中,利用物理仿真环境对真人轨迹进行反推,再训练强化学习策略去“复现”这些动作;在复现过程中,仿真系统自动记录下每一个接触点的力与力矩。


用一个比较形象的举例就是,类似于考古学家通过骨骼去复原恐龙原本的样子,包括整体骨架,肌肉走向等。



朱豪华透露,DexCanvas的扩展效率高达100倍。“事实上,不管我们怎么采集数据,这些数据都不可避免地存在一些误差,但是复刻的这部分数据,因为它本身就符合物理的力学规律。所以反推出来的数据,反而会比原始采集的数据更符合物理规律。”他进一步解释道。


而更让我们感兴趣的是,灵巧智能“真开源”的姿态,在数据壁垒仍占主流的机器人行业中,显得尤为罕见。


在当前的具身智能赛道,数据开源已成为一种趋势。但问题在于:开源的数据,真的好用吗?年内,我们和多家具身智能企业的访谈中均有聊到这一话题——业内的开源数据普遍存在通用性不高、标准不一、可用率低等问题。


“在行业尚未收敛的阶段通过‘真开源’构建行业共识,远比建立数据壁垒更为重要。”朱豪华强调:“很多数据集采集的是特定机器人本体的数据,换一个就用不了。而我们采集的是人手数据,通用性更强。”




在ImageNet时刻到来之前,把路铺好


2009年,ImageNet的开源催生了计算机视觉的深度学习革命。今日,灵巧手领域也一直在等待自己的“ImageNet时刻”—— 一个能把“手”和“力”同时规模化、系统化、物理真实化的数据集。


“灵巧操作的ImageNet时刻还没到来,我们要先把路铺好。”朱豪华说。“我们选择在这个时间点开源,一方面是希望为整个研究社区做一些贡献。另一方面,我们也希望差异化的路径能在业内或者研究社区内得到共识,加速技术的成熟。”


他认为,当数据不再是门槛,技术才能真正起飞,这也是一次对“具身如何智能”的重新回答。



“现在,我们已经在常见的典型物体上完成了真机验证,下一步将重点拓展掌内操作与力位微调能力,服务于更复杂的装配任务。”对于开源之后的规划,朱豪华透露,DexCanvas将在两个方向持续演进。


一是掌内操作与精密装配,从“抓得住”走向“调得准”,支持更复杂的掌内操作与微力调控;二是跨平台迁移与统一策略,即构建跨形态、跨任务的通用策略模型,更好地支持不同灵巧手本体迁移。


而真正的故事,远不止一个数据集那么简单。


在IROS现场,灵巧智能首次展示了其高自由度五指灵巧手DexHand021在机器人本体上完成动态抓取与掌内调姿的任务,这正是基于DexCanvas数据集训练而成。



从自研高自由度五指灵巧手DexHand021,发布DexCanvas数据集,构建覆盖“硬件—数据—算法—系统”的全栈能力,再到以开源姿态推动行业共识,灵巧智能正走出一条极具特色的“软硬一体、数据驱动”的具身智能路径。


这家曾被业界冠以“灵巧手硬件厂商”称呼的具身智能企业,正一点一点撕掉它的标签。




写在最后:拆掉数据壁垒,才能迎来真正的"灵巧智能


我们曾见证过无数次数据集发布或开源——有的昙花一现,有的悄然沉寂。


但DexCanvas显然是为“建桥”而来。其开源或许不会立刻带来行业的爆发式变革,但它拆掉了数据壁垒,建立了基础设施,让灵巧操作从一个封闭的技术高地,变成了所有开发者可以共同构建的开放生态。


而我们正在见证的,也不只是一个数据集的诞生和开源,更是一个行业从碎片走向统一、从演示走向落地的关键节点。


访谈结束后,我们偶然发现另一个有意思的点——不知是否巧合,DexCanvas中的“Canvas”翻译成中文是“画布”的意思,“画布”意味着可自由发挥。从开源的角度来说,它确实像是为全球研究者提供了一块可以自由挥洒的“灵巧操作画布”。


这,才是开源的意义所在。


附:DexCanvas数据集的版本V0.1测试版本已开放——


dataloader:https://github.com/DexRobot/mocap_loader

dataset:https://huggingface.co/datasets/DEXROBOT/DexCanvas

mainpage:https://dexcanvas.github.io/












声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
灵巧手
more
国产仿生灵巧手,已经Next Level
清华系前腾讯Robotics X核心成员创业,业内首款能“单手玩手机”的灵巧手来了|涌现新项目
灵心巧手:三年内把灵巧手价格打到500元以下
RSS'25开源|首个完全开源的全向视触觉传感器!灵巧手轻松实现纸类物体的抓取!
灵巧手的“ChatGPT时刻”:一个数据集正在试图教会机器人感觉
灵巧手能帮女友拧瓶盖了!同济清华上海交大等新成果 | CoRL 2025
发布对标特斯拉的“臂手一体”新品,灵巧手公司星际光年完成Pre-A轮融资丨智能涌现首发
清华TEALab最新成果 | 基于强化学习的灵巧手移动操作,一次性解决3重挑战!
灵巧手赛道“激战”,新老玩家各执什么王牌?
一月两轮!造出“能刷手机”灵巧手的清华系团队又拿融资了!
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号