北大开源3D-R1:释放具身导航中的3D场景理解能力

3D视觉工坊 2025-10-09 07:00

点击下方卡片,关注「3D视觉工坊」公众号
选择星标,干货第一时间送达

3D视觉工坊很荣幸邀请到了北京大学张泽宇,为大家着重分享他们团队的工作。如果您有相关工作需要分享,欢迎文末联系我们。

北大开源3D-R1:释放具身导航中的3D场景理解能力图13D-R1: Enhancing Reasoning in 3D VLMs for Unified Scene Understanding
主页hhttps://aigeeksgroup.github.io/3D-R1/
代码https://github.com/AIGeeksGroup/3D-R1

直播信息

时间

2025年10月09日(周四)19:00

主题

3D-R1: RL如何帮助多模态大模型理解空间信息

直播平台

3D视觉工坊视频号

点击按钮预约直播

3D视觉工坊哔哩哔哩也将同步直播北大开源3D-R1:释放具身导航中的3D场景理解能力图2

主讲嘉宾

北大开源3D-R1:释放具身导航中的3D场景理解能力图3张泽宇

张泽宇(Zeyu Zhang)是Richard Hartley教授和Ian Reid教授指导的研究员。他的主要的研究方向在于几何生成建模及其在多模态大模型、世界模型、具身智能和医疗智能中的应用。他在空间智能和生成模型领域的多项科研成果发表在计算机视觉和人工智能的顶级会议,包括 ECCV 2024,CVPR 2025, ICLR 2025 和 NeurIPS 2025。

个人主页https://steve-zeyu-zhang.github.io/

直播大纲

  1. 3D多模态表征学习
  2. RL增强多模态大模型对于空间的理解
  3. 3D多模态大模型在具身智能导航任务上的应用
  4. 3D多模态大模型在机器人操控任务上的应用

参与方式

北大开源3D-R1:释放具身导航中的3D场景理解能力图4

:3D视觉工坊很荣幸邀请到了北京大学张泽宇,为大家着重分享他们团队的工作。如果您有相关工作需要分享,欢迎文末联系我们。如果您有相关工作需要分享,欢迎联系微信:cv3d009,请备注:宣传工作,则不予通过。

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
导航 开源
more
基于 ESP32 的离线便携式全球导航卫星系统设备
地平线机器人具身导航快慢推理新探索!FSR-VLN:基于分层多模态场景图快慢推理的视觉语言导航
让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
感知、规划、预测大一统!RoboTron-Nav实现具身导航成功率81%,创历史新高!
17英寸双色轮圈、LED大灯、车载导航、360°全景影像,10万买车看看它!
NoMaD:基于目标掩码的统一扩散导航与探索策略
2.6倍成功率碾压SOTA!双 VLM 架构 + 百万数据集,打造跨平台通用具身导航框架!
RAL'25开源 | 清华新作EffoNAV:复杂环境的高效视觉导航方
导航上的7个隐藏功能,建议点赞收藏
(备胎视频)导航的8个隐藏功能,你知道几个
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号