自变量机器人完成近10亿元A+轮融资,阿里云、国科投资领投。作者 | 许丽思编辑 | 漠影机器人前瞻9月8日报道,今天,自变量机器人宣布完成近10亿元A+轮融资。本轮由阿里云、国科投资领投,国开金融、红杉中国、渶策资本跟投。老股东美团战投超额跟投,联想之星、君联资本持续追投。这是阿里云首次出手具身智能公司。本轮资金将用于自变量全自研通用具身智能基础模型的持续训练和硬件产品的研发迭代。自变量机器人的上一轮融资发生在今年5月,自变量机器人完成数亿元A轮融资,由美团战投领投、美团龙珠跟投。自2023年12月成立以来,其已完成8轮融资,投资方包括括德联资本、基石资本、啟赋资本、南山战新投、光速光合、君联资本、华映资本、云启资本、广发信德投资等多家机构。在硬件上,今年8月初,自变量机器人发布了适配多模态大模型控制的全自研轮式双臂仿人形机器人——量子2号(Quanta X2)。量子2号单手拥有20个自由度,能感知细微的压力变化。同时,基于臂手一体化外骨骼技术,自变量首创“仿人机械臂+高自由度灵巧手”一体化全身遥操方案,使得量子2号不仅能采集高质量数据反哺模型训练,也将与自研模型深度融合,真正进入到现实场景中落地应用。自变量自主研发WALL-A系列VLA操作大模型,能够构建统一的认知与行动框架。在统一表示空间中,模型同时处理感知、推理和行动,直接进行跨模态的因果推理和行动决策,让机器人最终能够像人类一样思考和工作。当前,WALL-A模型已在部分完全未训练过的新任务类型中展现出零样本泛化能力。同时,该公司实现了端到端具身思维链推理框架,基于多模态输入进行深度推理并生成多模态输出,形成模型自主决策、执行、探索和反思的完整闭环。模型能够将语言理解、视觉感知与动作执行紧密结合,形成更接近人类思维的推理过程,成功突破多步骤长序列任务瓶颈,任务完成度大幅提升,极大扩展了机器人处理复杂现实场景的能力边界。今天,自变量还开源了其面向开发者的具身基础模型Wall-OSS,并公开相关训练代码,便于全球开发者们在自有本体上快速微调和实际应用。Wall-OSS是一个基于大规模真实数据训练的开源具身基础模型。在模型架构上,创新性设计“共享注意力+专家分流(FFN)”架构,VLM预训练知识无损迁移到操作模型,语言、视觉、动作等信息都嵌入在同一个表示空间中处理;在训练方式上,首创“先离散、后连续、再联合”的三阶段训练范式,首创“先离散、后连续、再联合”的多阶段训练范式,保留了VLM的语言与视觉理解能力,又具备细粒度动作执行力;此外,统一跨层级思维链实现了跨层级抽象层面的前向任意映射,模型能够在单一可微分框架内无缝切换高层决策与底层执行。自变量机器人创始人兼CEO王潜毕业于清华大学,是全球最早在神经网络中引入注意力机制的学者之一。博士期间,王潜曾在美国顶级机器人实验室参与了多项Robotics Learning的研究,研究方向覆盖了机器人的多个前沿领域。联合创始人兼CTO王昊是北大计算物理博士,在粤港澳大湾区数字经济研究院(IDEA研究院)期间担任封神榜大模型团队算法负责人,发布了国内首个多模态开源大模型“太乙”,首批百亿级大语言模型“燃灯”以及千亿级大语言模型“姜子牙”。自变量机器人称,目其机器人已与头部服务业、工业客户达成合作,在多场景中投入使用,未来也将与客户围绕模型和硬件共建开放生态,推动具身智能的进一步发展。