重磅分享!VR-Robo:real2sim2real助力真实场景下的机器人导航和运动控制

具身智能之心 2025-07-09 08:00

点击下方卡片,关注“具身智能之心”公众号

>>直播和内容获取转到具身智能之心知识星球

足式机器人的运动控制得益于强化学习与物理仿真的结合,但其实际应用受限于“仿真与现实差距”,特别是缺乏真实感视觉渲染阻碍了需RGB感知的高阶任务(如本体感知导航)。本文提出“真实-仿真-真实”框架,通过多视角图像进行3D高斯溅射(3DGS)场景重建,构建兼具照片级真实感与物理交互特性的“数字孪生”仿真环境,实现视觉导航与运动控制的协同学习。在仿真器中训练强化学习策略执行视觉目标追踪任务的实验表明,该方法支持纯RGB输入的仿真到现实策略迁移,并能促进策略在新环境中的快速适应与高效探索,在家庭和工厂场景中具有应用潜力。

论文标题:VR-Robo: A Real-to-Sim-to-Real Framework for Visual Robot Navigation and Locomotion

论文链接:https://arxiv.org/abs/2502.01536

项目链接:https://vr-robo.github.io/

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
VR 导航 机器人
more
博伦思导航重磅发布:双光地景匹配+MEMS惯性组合导航系统
RAL'25开源 | 清华新作EffoNAV:复杂环境的高效视觉导航方
IGL-Nav:基于增量式3D高斯定位的图像目标导航(ICCV'25)
睿芯行新品地面纹理导航模组VTM 100重磅发布!
北大开源3D-R1:释放具身导航中的3D场景理解能力
训练样本1270万个!北大&银河通用王鹤团队提出跨本体跨任务具身导航基础模型NavFoM
给机器人装上「具身智能大脑」| Nav-R1“双脑架构”破局具身导航,慢思考规划+快执行控制!
吞下1270万样本,一个模型搞定所有机器人导航任务!解读北大王鹤团队最新研究NavFoM
地平线机器人具身导航快慢推理新探索!FSR-VLN:基于分层多模态场景图快慢推理的视觉语言导航
无人机帝国创新史:视觉导航团队的破茧、破界与破维
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号