首个开源多模态Deep Research智能体,超越多个闭源方案

量子位 2025-08-15 14:40
研究团队 投稿
量子位 | 公众号 QbitAI

首个开源多模态Deep Research Agent来了。

整合了网页浏览、图像搜索、代码解释器、内部 OCR 等多种工具,通过全自动流程生成高质量推理轨迹,并用冷启动微调和强化学习优化决策,使模型在任务中能自主选择合适的工具组合和推理路径。

假设你让一个 AI 回答这样一个问题:

“在这张图所示动物的 Wikipedia 页面上,2020 年之前带有 ‘visual edit’ 标签的修订次数是多少?”

资讯配图

听起来不复杂,但要得到正确答案,需要经过多个环节:

1 从图像中识别出动物(它是一只海鹦Atlantic puffin,而不是外形相似的鹈鹕、企鹅或海鸥)。
2 找到对应的 Wikipedia 页面并进入历史版本记录。
3 筛选出 2020 年之前带有 “visual edit” 标签的版本,并进行精确计数。

从上面案例可以看出,要解决这类问题,光有感知和理解还不够,Agent还需要能够制定计划、灵活调用不同工具、在推理过程中不断验证和修正方向。

这类跨模态、跨工具、多步骤的任务,需要具备深度研究(Deep Research)能力的Agent才能有效应对。

WebWatcher 的核心方法

WebWatcher 的技术方案覆盖了从数据构建到训练优化的完整链路,核心目标是让多模态Agent在高难度多模态深度研究任务中具备灵活推理和多工具协作能力。整个方法包含三大环节:

1 多模态高难度数据生成:构建具备复杂推理链和信息模糊化的训练数据;

2 高质量推理轨迹构建与后训练:生成贴近真实多工具交互的推理轨迹,并通过监督微调(SFT)完成初步能力对齐。然后利用 GRPO 在复杂任务环境中进一步提升模型的决策能力与泛化性;

3 高难度基准评测:构建并使用 BrowseComp-VL 对模型的多模态深度推理能力进行验证。

1. 多模态高难度数据生成

现有大多数 VQA 数据集集中于单步感知任务,缺乏规划性与深度推理需求,难以支撑多模态深度研究代理的训练。为此,研究团队设计了一个全自动多模态数据生成流程,目标是在真实互联网知识分布下生成复杂、跨模态、链路不确定的任务样本。

资讯配图

随机游走收集跨模态知识链
研究团队在多源网页(文本、图片、混合页面)中进行随机游走采样,构建多领域实体图谱。不同于传统的线性多跳问答链,这种图谱连接稠密、路径不固定,问题的解决路线难以预设,逼迫模型探索性地组合视觉信息。

信息模糊化提升不确定性
在生成问题时,研究团队刻意隐藏关键信息(如将“2019 年”替换为“21 世纪初”、将实体名改为描述性短语),并在视觉部分引入模糊指代词描述,使得模型无法依赖简单模式匹配,必须进行跨模态推理。

文本-视觉联合转换
所有复杂问题(QA) 样本通过 QA-to-VQA 转换模块扩展为多模态版本,将图谱中的部分实体或关系替换为图片、图表或网页截图,使问题天然依赖跨模态理解能力。
经过多阶段过滤,包括语义合理性检查、视觉相关性验证、推理链长度控制,研究团队得到了一个大规模、高质量的多模态推理数据集,能够覆盖多种复杂推理模式。

2. 高质量推理轨迹构建与后训练

在高难度训练数据的基础上,模型还需要学习如何调用工具和如何在推理中动态切换策略。然而,现有推理模型在长链多工具任务中存在两个问题:

1 思维链条冗长、模板化,缺乏跨任务的适应性;
2 工具调用格式和角色差异大,直接采集到的轨迹难以直接用于训练。

为此,研究团队提出了Action-Observation 驱动的轨迹生成方法

随后,研究团队基于这些高质量轨迹进行监督微调(SFT),让 WebWatcher 在训练初期快速掌握多模态 ReAct 式推理和工具调用的基本模式,为后续的强化学习阶段打下基础。

在完成冷启动后,WebWatcher进入强化学习阶段,用GRPO进一步提升多模态Agent在复杂环境下的决策能力。模型严格结合格式正确性与答案准确性双重标准设计奖励,对多步工具调用的连贯性和最终答案的准确性均予以关注,从而提升多模态决策链的可靠性。

3. BrowseComp-VL:多模态深度研究基准

为了全面验证 WebWatcher 的能力,研究团队提出了BrowseComp-VL,它是 BrowseComp 在视觉-语言任务上的扩展版本,设计目标是逼近人类专家的跨模态研究任务难度
该基准具有以下特点:

- 任务长且信息模糊化:问题往往包含多个模糊实体描述,需要跨网页、跨模态搜索与整合;
- 多工具协作必要性:任务无法仅靠感知或文本检索完成,必须结合网页浏览、图像检索、OCR、代码执行等多种工具;
- 真实网络环境:测试样本来自真实网页与图像资源,保持复杂性与不可预测性。

资讯配图

实验结果:刷新多模态推理与信息检索新纪录

在多轮严格评测中,WebWatcher 在四大核心领域全面领先于当前主流的开源与闭源多模态大模型,显示出其在复杂推理、信息检索、知识整合以及聚合类信息寻优等任务上的强劲实力。

资讯配图

复杂推理(HLE-VL)
在人类终极考试(Humanity’s Last Exam,HLE-VL)这一多步复杂推理基准上,WebWatcher以13.6%的Pass@1分数一举夺魁,大幅领先于GPT-4o(9.8%)、Gemini2.5-flash(9.2%)、Qwen2.5-VL-72B(8.6%)等代表性模型。充分证明了其在高难度知识融合与链式决策中的推理能力。

信息检索能力(MMSearch)
在更贴近真实多模态搜索的MMSearch评测中,WebWatcher 同样表现卓越,Pass@1得分高达55.3%,相比Gemini2.5-flash(43.9%)和GPT-4o(24.1%)等大幅领先,展现了极高的检索精准性和复杂场景下的信息聚合能力。

知识+检索整合(LiveVQA)
LiveVQA是知识推理与外部信息获取深度协同的典型场景。WebWatcher的Pass@1成绩达到58.7%,领先Gemini2.5-flash(41.3%)、Qwen2.5-VL-72B(35.7%)和GPT-4o(34.0%),充分体现了其在知识调用、事实核查与实时信息融合等多维技能上的系统性优势。

信息寻优与聚合(BrowseComp-VL)
在最具综合挑战的BrowseComp-VL基准(信息聚合型任务)上,WebWatcher 以27.0%的平均得分(Pass@1)遥遥领先,于GPT-4o(13.4%)、Gemini2.5-flash(13.0%)、Qwen2.5-VL-72B(11.5%)、Claude-3.7(11.2%)等国内外主流旗舰模型,成绩提升超过一倍。该基准涵盖了跨网页、多实体、模糊表达等严苛考验,彰显了WebWatcher 在复杂信息寻优与聚合领域的绝对能力优势。

综合来看,WebWatcher不仅在单一任务维度实现领先,更在复合型任务、跨模态复杂推理及真实信息检索等方面,奠定了新一代开源多模态Agent的领先地位。

arxiv:https://arxiv.org/abs/2508.05748
github仓库:https://github.com/Alibaba-NLP/WebAgent

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

资讯配图


🌟 点亮星标 🌟

科技前沿进展每日见

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AR 开源
more
美国AI致命短视:中国手握电力、芯片集群、开源三张王牌,三大「阳谋」悄然超车
ICCV'25开源 | 港中文新作OmniDepth:统一单目和双目深度估计!完虐DepthAnythingV2!
OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了
谷歌最新「0.27B」Gemma 3开源!身板小却猛如虎,开发者直呼救命稻草
智元机器人发布行业首个机器人世界模型开源平台——Genie Envisioner
模仿人类推理修正过程,阶跃星辰提出形式化证明新范式 | 开源
AI图像水印失守!开源工具5分钟内抹除所有水印
全球首个AI-Native SCADA平台,工业智能“开源”炸场!
量智融合!量子神经网络开发套件正式开源
仅0.27B参数!谷歌开源史上最小Gemma 3,手机能跑,25次对话耗电不到1%
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号