作者丨Jingjing Qian等
编辑丨具身智能之心
本文只做学术分享,如有侵权,联系删文
在机器人操纵领域,视觉 - 语言 - 动作(VLA)模型凭借大规模预训练数据的语义与视觉先验,实现了跨任务泛化,但长期受限于 2D-centric 的反应式决策范式,难以应对需要精准 3D 空间推理、长时程物理一致性的复杂任务。
香港中文大学(深圳)、湖南大学、理想汽车等联合团队提出的 GeoPredict 框架,以 “预测性运动学 + 3D 高斯几何” 为双核心,通过 “轨迹级运动预测 - 3D 高斯场景建模 - 训练时监督推理时轻量化” 的创新架构,首次将未来感知的几何先验注入连续动作 VLA 模型,彻底突破了传统方法的空间推理瓶颈。
论文题目:GeoPredict: Leveraging Predictive Kinematics and 3D Gaussian Geometry for Precise VLA Manipulation
GeoPredict — Project Page (jingjingqian75.:https://jingjingqian75.github.io/GeoPredict-Page/
核心亮点:轨迹级 3D 关键点预测、轨迹引导的 3D 高斯几何细化、训练 - 推理解耦设计、跨模拟 / 真实场景鲁棒性
问题根源:传统 VLA 模型的三大核心短板
GeoPredict 的技术突破源于对现有 VLA 模型本质缺陷的精准定位,三大核心挑战构成其创新起点:
空间建模缺失
现有模型局限于 2D 图像空间进行反应式决策,缺乏对物体姿态、间隙、末端执行器运动的显式 3D 几何建模,在需要精准定位的任务中可靠性不足。
长时程预测不足
反应式策略仅依赖瞬时观测,无法捕捉运动惯性与场景动态演化,难以应对长时程操纵任务中的物理一致性要求。
推理效率矛盾
引入复杂 3D 预测模块的方法往往导致推理时计算开销激增,无法满足实时机器人控制的部署需求。
方案设计:GeoPredict 的双预测模块技术架构
针对上述挑战,GeoPredict 构建了 “运动学预测 - 几何建模 - 注意力融合” 的三层技术体系,在不增加推理负担的前提下,为 VLA 模型注入未来感知的几何先验:

第一层:轨迹级运动学预测模块 —— 捕捉机器人运动的未来惯性
该模块通过编码运动历史、预测多步轨迹,为政策提供显式的运动学先验,同时引导后续几何建模的资源分配:
-
轨迹编码器(Track Encoder):追踪机器人关节与末端执行器的 K 个 3D 关键点,将其历史运动轨迹通过交叉注意力压缩为紧凑的历史轨迹token,编码运动惯性、关节限制等动态规律; -
未来轨迹查询(Future Track Query):引入可学习的未来轨迹查询向量,结合语言指令、当前观测与历史token,通过 MLP 解码生成 H 步(默认 50 步)的 3D 关键点轨迹预测,采用均方误差损失()监督轨迹精度; -
双重作用:既正则化 Transformer 的内部动态,又为 3D 几何模块提供 “哪里需要高精度建模” 的空间指引。
第二层:预测性 3D 高斯几何模块 —— 预见场景的动态演化
基于 3D 高斯 splatting(3DGS)的高效表征能力,构建未来场景几何预测模块,实现对工作空间动态的精准建模:
-
3D 空间查询(3D Spatial Query):将机器人工作空间离散为体素网格,通过 3D 正弦位置编码注入空间结构信息,生成初始空间查询token序列; -
体素解码器(Voxel Decoder):结合时间位置编码,将空间token解码为密集体素特征,映射为包含位置、不透明度、协方差的 3D 高斯基元,形成初始场景表征(); -
轨迹引导细化(Track-guided Refinement):利用运动学模块预测的未来关键点轨迹,生成二进制细化掩码,对轨迹途经的体素分配更多高斯基元( > ),形成高分辨率交互区域表征(),最终融合为完整场景模型(); -
深度渲染监督:通过可微分阿尔法合成从 3D 高斯模型渲染未来深度图,采用掩码 L1 损失()监督几何精度,仅关注工作空间内的有效区域。
第三层:块级因果注意力 —— 实现多模态信息的层级融合
设计块级因果注意力机制,将不同类型token按 “感知 - 预测 - 控制” 层级组织,确保信息流动的合理性与高效性:
-
token分组:将文本 / 图像token(2D Token)、历史轨迹token(3D Token)、未来查询token(3D Query)、本体感受token(State Token)、动作噪声token(Action Noise)划分为五个有序块;
-
注意力规则:块内双向注意力支持充分交互,块间严格因果注意力(仅后续块可关注前置块),构建 “2D 感知→3D 历史→3D 预测→动作生成” 的逻辑链路;
-
训练 - 推理解耦:运动学预测与 3D 高斯几何模块仅在训练时提供监督信号,推理时仅需轻量级查询token,保持与基础 VLA 模型一致的高效性。

验证逻辑:从模拟到真实的四级性能验证
GeoPredict 通过 “模拟基准测试 - 组件消融分析 - 定性效果可视化 - 真实场景落地” 的完整验证体系,充分证明其技术有效性:
跨数据集基准测试:刷新 SOTA 性能
在两大权威机器人操纵基准上,GeoPredict 显著超越现有方法:

-
RoboCasa Human-50:在 24 个复杂日常任务的少样本设置(每任务 50 条人类演示)中,平均成功率达 52.4%,较基础模型提升 10.1%,大幅超越 BC-Transformer(28.8%)、GWM(39.2%)等基线;

-
LIBERO 四大套件:在空间推理、物体交互、目标达成、长时任务中均表现最优,平均成功率 96.5%,超越 UniVLA(95.2%)、4D-VLA(88.6%)等当前 SOTA 方法,尤其在长时任务(LIBERO-Long)中提升 6.4%,凸显长时程预测优势。
组件消融分析:验证核心设计价值
通过逐步构建模型,量化各组件的贡献:


-
运动学模块:仅添加轨迹编码器提升 2.5%,结合未来轨迹查询进一步提升至 47.2%,验证运动惯性建模的重要性; -
几何模块:基础 3D 高斯建模(无细化)提升至 49.4%,结合轨迹引导细化后达 52.4%,证明针对性几何资源分配的有效性; -
效率对比:轨迹引导细化(=4, =64)较全局高分辨率建模(=8)训练效率提升 20%,且性能更优(52.4% vs 51.4%)。
定性效果可视化:几何预测的精准性
未来深度渲染结果显示,GeoPredict 的 3D 高斯模型能精准捕捉场景动态:

-
初始高斯模型()仅能呈现粗糙场景布局,而轨迹引导的细化模型()在机器人运动路径上提供锐利的几何细节,尤其在关节与物体交互区域; -
随时间步(t+1→t+20)演进,预测深度图与真实场景的一致性持续保持,验证长时程几何预测的稳定性。
真实场景验证:突破 2D 模型的泛化瓶颈
在三大真实世界任务中,GeoPredict 展现出卓越的 3D 推理泛化能力:


-
空间泛化任务:将绿色立方体放入未见过的目标位置,成功率达 85.0%(基线 60.0%); -
几何泛化任务:应对训练中未出现的物体尺寸与形状(含长方体的三种稳定姿态),成功率 95.0%(基线 50.0%),凸显 3D 几何理解优势; -
视觉鲁棒性任务:在背景存在陌生干扰物的场景中,成功率 90.0%(基线 35.0%),证明几何先验对视觉噪声的抵抗能力。
局限与未来方向
GeoPredict 作为几何感知 VLA 模型的开创性工作,仍存在可拓展空间:
-
几何表征维度:当前聚焦深度几何建模,未融合物体材质、物理属性等信息,未来可引入多属性高斯表征; -
预测 horizon 平衡:更长的预测步长可能提升长时任务性能,但需解决累积误差问题,可探索自适应 horizon 机制; -
实时性优化:虽推理时不启用 3D 解码,但轨迹预测与注意力计算仍有精简空间,可结合模型压缩技术进一步提升部署效率; -
多机器人适配:当前针对单臂机器人设计,未来可扩展至多臂协作场景,构建多主体运动学与几何预测框架。
总结:GeoPredict 的范式价值与行业影响
GeoPredict 的核心贡献不仅在于提出了双预测模块架构,更在于建立了 “3D 先验注入 - 训练推理解耦” 的新范式:通过轨迹级运动学预测捕捉动态惯性,通过 3D 高斯几何建模预见场景演化,通过训练时监督机制在不牺牲效率的前提下提升模型几何推理能力。其在 RoboCasa、LIBERO 基准及真实场景的优异表现,证明了预测性几何先验对 VLA 模型的关键增益,为机器人操纵从 “反应式” 走向 “预判式” 提供了完整技术路径,加速了通用自主机器人在复杂真实环境中的落地进程。