Midjourney操作界面

阿里通义实验室推出 ZeroSearch:让大模型无需 API 自我 “搜索”

4.8
0热度
通义APP

在人工智能的迅速发展中,如何提升大语言模型(LLM)的检索和推理能力成为研究的热门话题。近日,阿里通义实验室提出了一个名为 “ZeroSearch” 的新框架,它能够使大型语言模型自己模拟搜索引擎,从而在没有实际搜索引擎的情况下,提升其推理能力。传统的搜索引擎虽然强大,但在训练大模型时,它们的输出质量常常不可预测,可能导致训练过程中的噪声和不稳定。此外,依赖真实搜索引擎的 API 调用会产生巨大的

在人工智能的迅速发展中,如何提升大语言模型(LLM)的检索和推理能力成为研究的热门话题。近日,阿里通义实验室提出了一个名为 “ZeroSearch” 的新框架,它能够使大型语言模型自己模拟搜索引擎,从而在没有实际搜索引擎的情况下,提升其推理能力。

传统的搜索引擎虽然强大,但在训练大模型时,它们的输出质量常常不可预测,可能导致训练过程中的噪声和不稳定。此外,依赖真实搜索引擎的 API 调用会产生巨大的成本,这让大规模的强化学习训练变得不切实际。而 ZeroSearch 的出现,恰好解决了这些问题。这个框架通过模拟搜索环境和渐进式抗噪训练,允许大模型在无需与真实搜索引擎交互的情况下进行学习。

通义 Qwen (4)

ZeroSearch 的核心是利用强化学习(RL)和少量的标注数据对大模型进行微调,使其能够生成有用的文档和干扰文档。在训练过程中,模型会学习如何生成与真实搜索引擎风格相似的内容,同时适应不同质量文档的生成。这种动态调整的能力让模型在面对更复杂的检索任务时,能够迅速适应并找到平衡。

此外,ZeroSearch 采用了课程式学习的方法。在训练初期,模型会接收到高质量的文档,而随着训练的深入,模型将逐步接触到混入噪声的文档。这种逐步提升难度的策略,不仅提升了模型的推理能力,还增强了训练的稳定性和效果。经过训练,模型能够在高质量和低质量文档中找到最佳的检索策略。

研究表明,ZeroSearch 在多个问答数据集上表现优异,尤其在单跳和多跳问答任务中,相较于传统方法,它的表现有明显优势。这意味着 ZeroSearch 不仅在简单问题上能提供准确答案,还能够应对更复杂的查询任务。

ZeroSearch 为大模型的自我学习提供了全新的思路,消除了与搜索引擎之间的依赖,使得大规模的强化学习训练更加经济可行。未来,ZeroSearch 有望在提升 LLM 的检索能力和应用范围方面发挥更大作用。

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部