北大开源3D-R1:释放具身导航中的3D场景理解能力

3D视觉工坊 2025-10-09 07:00

点击下方卡片,关注「3D视觉工坊」公众号
选择星标,干货第一时间送达

3D视觉工坊很荣幸邀请到了北京大学张泽宇,为大家着重分享他们团队的工作。如果您有相关工作需要分享,欢迎文末联系我们。

北大开源3D-R1:释放具身导航中的3D场景理解能力图13D-R1: Enhancing Reasoning in 3D VLMs for Unified Scene Understanding
主页hhttps://aigeeksgroup.github.io/3D-R1/
代码https://github.com/AIGeeksGroup/3D-R1

直播信息

时间

2025年10月09日(周四)19:00

主题

3D-R1: RL如何帮助多模态大模型理解空间信息

直播平台

3D视觉工坊视频号

点击按钮预约直播

3D视觉工坊哔哩哔哩也将同步直播北大开源3D-R1:释放具身导航中的3D场景理解能力图2

主讲嘉宾

北大开源3D-R1:释放具身导航中的3D场景理解能力图3张泽宇

张泽宇(Zeyu Zhang)是Richard Hartley教授和Ian Reid教授指导的研究员。他的主要的研究方向在于几何生成建模及其在多模态大模型、世界模型、具身智能和医疗智能中的应用。他在空间智能和生成模型领域的多项科研成果发表在计算机视觉和人工智能的顶级会议,包括 ECCV 2024,CVPR 2025, ICLR 2025 和 NeurIPS 2025。

个人主页https://steve-zeyu-zhang.github.io/

直播大纲

  1. 3D多模态表征学习
  2. RL增强多模态大模型对于空间的理解
  3. 3D多模态大模型在具身智能导航任务上的应用
  4. 3D多模态大模型在机器人操控任务上的应用

参与方式

北大开源3D-R1:释放具身导航中的3D场景理解能力图4

:3D视觉工坊很荣幸邀请到了北京大学张泽宇,为大家着重分享他们团队的工作。如果您有相关工作需要分享,欢迎文末联系我们。如果您有相关工作需要分享,欢迎联系微信:cv3d009,请备注:宣传工作,则不予通过。

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
导航 开源
more
RoboTidy即将开源:让机器人在家庭场景“游刃有余”
硬刚 GPT-5 !这款中国开源 AI 模型拿下全球第一,有何杀手锏?
爆火全网FLUX.2重磅上线,开源版Nano Banana来了!
刚刚,最佳VLA模型GigaBrain-0开源:世界模型驱动10倍数据,真机碾压SOTA
杭州发“AI开源政策包”!千万级补贴、“喂饭级”场景清单、中国最大开源社区“大本营”就位
ICLR'25 开源 | 推翻传统NBV,超复杂室内环境实时探索重建大突破!
从零到千万:一个中国开源操作系统的全球崛起之路
刚刚,DeepSeek开源新模型,拿下奥数证明题冠军
OpenArm:人人可用的仿人双臂开源平台
阿里Z-image实测:不虚Banana,堪称开源界扛把子?
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号