腾讯开源 OpenSearch-VL,突破多模态搜索 AI 智能体训练瓶颈
AI 摘要
这条新闻显示「腾讯开源 OpenSearch-VL,突破多模态搜索 AI 智能体训练瓶颈」正在成为 科技产业 方向的新信号,值得结合 东亚 与 科技 后续动态继续观察。
关键点
- 核心事件:腾讯开源 OpenSearch-VL,突破多模态搜索 AI 智能体训练瓶颈
- 所属领域:科技 / 科技产业
- 观察维度:东亚、IT之家 后续报道与同类事件是否继续增加
影响分析
短期可能影响产品路线、开发者生态与产业链预期;若同类新闻继续增加,可能形成新的科技主题。
情绪:中性偏积极 · 相关:IT之家 / 科技 / 东亚 / 科技产业 · 模板回退
IT之家 5 月 7 日消息,腾讯混元(Tencent Hunyuan)携手加州大学洛杉矶分校(UCLA)、香港中文大学等学府,联合发布 OpenSearch-VL 开源多模态训练方案,通过强化学习(RL)技术,打造具备前沿能力的深度搜索智能体。多模态搜索智能体指能够处理图像、文本等多种模态输入,并主动调用外部工具(如搜索引擎、图像处理工具)进行多步骤推理、证据验证与知识检索的智能体,旨在解决知识密集型的复杂视觉问答。该报告昨日(5 月 6 日)在 arXiv 平台发表,介绍了 OpenSearch-VL 方案,用于训练前沿多模态深度搜索智能体。研究构建了高质量数据管道,通过维基百科路径采样与模糊实体重写减少检索捷径,产出 SearchVL-SFT-36k 等数据集。研究团队指出,目前阻碍前沿多模态搜索智能体进化的最大瓶颈,在于高质量的训练数据。现有顶尖系统多由商业公司主导,其数据来源、过滤标准与工具使用轨迹均属私有,阻碍了先进能力的复现与系统性研究。研究提出 OpenSearch-VL,提供从数据、工具到训练算法的完整开源方案。在构建数据管道方面,OpenSearch-VL 提出利用维基百科的超链接图谱,执行多跳实体路径采样,将中间实体重写为模糊描述,并将锚点实体锚定至源图像,从而抑制单步检索捷径,鼓励智能体学习多跳搜索与推理行为。管道产出 SearchVL-SFT-36k 数据集用于监督微调,平均每轨迹包含 6.3 次工具调用。同时,随机选取 10% 数据应用模糊、下采样等降质处理,配对增强工具,诱导“边思考边处理图像”的行为。工具环境超越仅检索的智能体,统一文本搜索、图像搜索、OCR、裁剪、锐化、超分辨率与透视校正等功能。这允许智能体在查询外部知识前,先处理模糊、低分辨率或倾斜的视觉输入,实现主动感知与知识获取的结合。实验显示,OpenSearch-VL-30B-A3B 模型将基线平均得分从 47.8 提升至 61.6,在 VDR、MMSearch 等基准上取得显著增益。消融实验验证了各组件贡献:移除源锚点锚定、模糊重写或分阶段过滤导致平均得分下降 8.2 至 11.5 点。IT之家附上参考地址OpenSearch-VL: An Open Recipe for Frontier Multimodal Search AgentsGitHub:An Open Recipe for Frontier Multimodal Search AgentsHuggingface