RAG-Gym: 基于过程监督的检索增强生成代理优化框架

简介: 本文介绍RAG-Gym框架,通过过程监督优化推理与搜索代理。针对传统RAG架构效能限制及提示工程依赖问题,提出统一优化方法。核心贡献包括:设计ReSearch代理架构实现推理与搜索协同;验证过程奖励模型提升性能;系统分析过程监督来源、奖励模型迁移性和性能扩展规律。实验表明,RAG-Gym显著增强知识密集型任务中搜索代理表现,为未来智能系统研发提供理论与实践参考。

传统检索增强生成(RAG)架构因依赖静态检索机制,在处理需要顺序信息搜索的复杂问题时存在效能限制。尽管基于代理的推理与搜索方法提供了更具适应性的解决方案,但现有方法大多过度依赖提示工程技术。

针对上述挑战,本文介绍了RAG-Gym框架,这是一种通过在搜索过程中实施细粒度过程监督来增强信息搜索代理的统一优化方法。该研究的主要贡献包括:提出RAG-Gym统一优化框架;设计ReSearch代理架构,实现答案推理与搜索协同;验证了经训练的过程奖励模型作为验证器能显著提升搜索代理性能;以及针对代理式RAG系统中过程监督来源、奖励模型可迁移性和性能扩展规律提供了系统性分析。

RAG-Gym框架

框架概述

RAG-Gym将知识密集型问答任务形式化为嵌套马尔可夫决策过程(MDP),构建了完整的过程监督体系。该框架通过在每个决策时间步骤随机采样动作候选项,并利用外部注释器选择最优动作来收集过程奖励数据。框架内实现了多种过程监督方法,为代理优化提供了统一的实验环境。

知识密集型问答的MDP形式化

为了系统化地表示知识密集型问题上的语言代理决策过程,RAG-Gym构建了外部MDP,其关键组成如下:

a) 状态空间(State Space) S

在时间步t,状态$s_t \in S$包含原始问题Q和信息搜索历史$H_t$,形式化表示为:$s_t = (Q, H_t)$,其中$H_t = {(q_1, D1), \cdots, (q{t-1}, D_{t-1})}$表示信息搜索查询序列$q1, \cdots, q{t-1}$及其对应的环境返回检索文档集合$D1, \cdots, D{t-1}$。状态空间S包含所有可能状态:

其中I表示问题空间,$A_q$表示所有可能搜索查询的空间,D表示所有文档的空间。

b) 动作空间(Action Space) A

时间步t的动作$a_t$可以是搜索查询或针对原始问题的预测答案。动作空间定义为$A = A_q \cup A_p$,$A_q$代表所有可能查询的集合,$A_p$代表可能答案的集合。

c) 信息检索环境(IR Environment)

RAG-Gym中的外部MDP环境由信息检索(IR)系统驱动,该系统接收搜索查询$q_t$作为输入,并返回相关文档集合$D_t$作为输出。IR系统可表示为从$A_q$到$P(D)$的映射函数,其中$P(D)$是D的幂集。检索过程实际由底层文本检索器和特定检索参数(如返回文档数量)决定。

d) MDP工作流程

对于给定问题Q,MDP从初始状态$s1 = (Q, \emptyset)$开始。每个步骤t,根据代理策略$\pi{f(\theta)}(\cdot | s_t)$采样动作$at$,其中$\pi{f(\theta)}: S \rightarrow \Delta(A)$定义了给定状态的动作分布。代理策略由参数θ组成,θ表示基础语言模型参数,f代表代理特定函数,表示如何利用基础LLM实现策略。

若$a_t \in Aq$,则历史更新为$H{t+1}$,通过添加$(q_t, Dt)$,状态转换为$s{t+1} = (Q, H_{t+1})$。若$a_t \in A_p$,则当前回合结束,MDP终止。

e) 奖励机制

外部MDP中,回合奖励由最终预测的正确性决定。状态-动作对$(s_t, a_t)$的即时奖励定义为:

代理的优化目标是最大化轨迹上的预期累积奖励:

过程监督优化搜索代理

RAG-Gym通过整合过程奖励机制,实现了对语言模型的高效调优,使token生成与高质量搜索行为保持一致。

a) 过程奖励数据收集

数据收集流程始于轨迹采样,语言代理基于当前策略生成一系列动作。在轨迹的每个步骤,系统提出多个候选动作,并根据预定义评估标准选择最佳动作。为确保评估一致性,采用基于排序的评估框架而非数值打分。执行选定动作后,轨迹转入下一状态,重复此过程直至轨迹终止。为保证质量,系统仅保留产生正确最终答案的轨迹。

b) 基于过程监督的代理优化

(1) 监督微调(SFT)

过程奖励筛选的优质动作用于训练语言代理。形式上,SFT的目标是最小化给定状态下选定动作的负对数似然:

其中D表示过程奖励标记的状态-动作对数据集。

(2) 直接偏好优化(DPO)

系统引入对比学习框架,整合已选与未选动作信息。过程奖励数据重构为偏好对$(a^+_t, a^-_t)$,其中$a^+_t$为首选动作,$a^-_t$为次优选择。DPO目标函数为最小化以下损失:

(3) 过程奖励建模(PRM)

系统训练独立奖励模型$r_\phi(s_t, a_t)$基于收集数据预测过程奖励。优化目标是最小化对比损失,评估首选动作相对次优动作的质量差异:

推理与搜索(ReSearch)代理架构

ReSearch代理架构在统一的答案驱动框架中整合了推理与搜索功能,形成了一种高效的信息获取与处理机制。

历史知识总结

给定状态$s_t$,包含原始问题Q和历史$H_t = {(q_1, D1), \ldots, (q{t-1}, D_{t-1})}$,代理首先将检索文档总结为对应查询的结构化响应,形成精炼知识表示$H'_t$:

$H'_t = {(q_1, m1), \ldots, (q{t-1}, m_{t-1})}$

此总结步骤有效过滤不相关信息,缓解长上下文处理挑战,使代理能聚焦于构建答案时最相关的事实。

答案推理

利用精炼知识$H'_t$,代理进行结构化推理以推导问题的候选答案。随后,系统检查推理步骤,判断所有声明是否具备充分的历史依据。若代理确认答案推理中的所有声明均有检索证据支持,则输出最终答案。否则,系统识别未经验证的声明,即那些缺乏基于可用证据充分理由的陈述。

搜索查询生成

未经验证的声明成为生成下一搜索查询的基础,该查询专门用于检索缺失信息。从此查询获取的文档被添加至$H_t$,并重复推理过程,直至所有声明获得验证或检索预算耗尽。

实验结果

过程监督方法比较

下表展示了使用Llama-3.1-8B-Instruct实现的各类代理性能,及其通过RAG-Gym不同过程监督方法调优后的表现:

与零样本学习(ZSL)基线相比,过程监督显著提升了所有代理的性能,证明其在增强中间推理和查询生成方面的有效性。在三种过程监督算法中,PRM整体表现最佳,相较ZSL基线提升高达25.6%(ReAct平均F1)。

ReSearch与其他代理比较

结果表明ReSearch在零样本设置和过程监督调优后均持续优于其他代理。无需调优时,ReSearch展现了强大的零样本性能,证明了明确将答案推理与查询生成对齐的有效性。结合过程奖励模型后,ReSearch实现了最先进的性能,在多个数据集上平均EM(完全匹配)得分达54.31%,平均F1得分达62.41%。

奖励模型可迁移性

下图展示了使用基于Llama-3.1-8B训练的过程奖励模型对GPT-4o-mini的ReSearch代理性能提升:

结果显示,使用奖励模型进行动作选择在所有任务中均带来一致收益,证明了PRM在有效筛选不同LLM高质量动作方面具备良好的可迁移性。

深入分析

不同奖励来源比较

研究中,四位领域专家对200个MedQA问题进行注释。奖励模型在剩余800个GPT-4o注释的训练问题上进行训练,并将其偏好与领域专家判断进行比较。下表显示了领域专家偏好与不同奖励来源在MedQA任务上的一致性:

使用GPT-4o注释训练的奖励模型与人类偏好达成最高一致性(85.85%),显著优于Math-Shepherd中引入的基于rollout方法(71.03%)。这表明在特定场景下,GPT-4o的注释与人类推理和决策模式高度相关。

训练规模效应

下图展示了使用不同训练样本数量调优的过程奖励模型对ReSearch代理性能的影响:

结果表明,ReSearch性能随训练样本增加而提升,但随样本规模增长,边际收益趋于收敛,符合典型的机器学习规模律。

推理时间扩展分析

下图展示了推理时间扩展研究结果,其中ReSearch作为测试代理:

在多个基准测试中观察到一致趋势:增加采样动作数量通常能提升整体性能,表明更广泛的动作探索空间对复杂问题求解具有积极影响。

总结

论文介绍了RAG-Gym,一个通过过程监督优化推理和搜索代理的统一框架,并提出ReSearch架构,有效整合答案推理与搜索查询生成。实验结果证明,RAG-Gym显著提升了知识密集型任务中搜索代理的性能,而ReSearch架构在各种测试场景中均优于现有基线系统。

研究进一步验证了利用大型语言模型作为过程奖励判断的有效性、训练奖励模型在不同语言模型间的可迁移性,以及ReSearch在训练和推理过程中的性能扩展规律,为未来基于检索增强生成的智能系统研发提供了重要理论和实践参考。

论文:

https://avoid.overfit.cn/post/b8ca237f97614085955d55b3fda2d6e4

目录
相关文章
|
9月前
|
关系型数据库 BI OLAP
一招解决数据库中报表查询慢的痛点
本文旨在解决传统数据库系统如PostgreSQL在处理复杂分析查询时面临的性能瓶颈问题。
1570 164
一招解决数据库中报表查询慢的痛点
|
9月前
|
机器学习/深度学习 人工智能 安全
一篇关于DeepSeek模型先进性的阅读理解
本文以DeepSeek模型为核心,探讨了其技术先进性、训练过程及行业影响。首先介绍DeepSeek的快速崛起及其对AI行业的颠覆作用。DeepSeek通过强化学习(RL)实现Time Scaling Law的新范式,突破了传统大模型依赖算力和数据的限制,展现了集成式创新的优势。文章还提到开源的重要性以及数据作为制胜法宝的关键地位,同时警示了业务发展中安全滞后的问题。
1345 176
一篇关于DeepSeek模型先进性的阅读理解
|
9月前
|
缓存 运维 监控
解决隐式内存占用难题
本文详细介绍了在云原生和容器化部署环境中,内存管理和性能优化所面临的挑战及相应的解决方案。
827 193
解决隐式内存占用难题
|
9月前
|
人工智能 监控 开发者
详解大模型应用可观测全链路
阿里云可观测解决方案从几个方面来尝试帮助使用 QwQ、Deepseek 的 LLM 应用开发者来满足领域化的可观测述求。
2131 157
详解大模型应用可观测全链路
|
9月前
|
人工智能 Prometheus 监控
监控vLLM等大模型推理性能
本文将深入探讨 AI 推理应用的可观测方案,并基于 Prometheus 规范提供一套完整的指标观测方案,帮助开发者构建稳定、高效的推理应用。
1480 169
监控vLLM等大模型推理性能
|
9月前
|
人工智能 缓存 安全
大模型无缝切换,QwQ-32B和DeepSeek-R1 全都要
通义千问最新推出的QwQ-32B推理模型,拥有320亿参数,性能媲美DeepSeek-R1(6710亿参数)。QwQ-32B支持在小型移动设备上本地运行,并可将企业大模型API调用成本降低90%以上。本文介绍了如何通过Higress AI网关实现DeepSeek-R1与QwQ-32B之间的无缝切换,涵盖环境准备、模型接入配置及客户端调用示例等内容。此外,还详细探讨了Higress AI网关的多模型服务、消费者鉴权、模型自动切换等高级功能,帮助企业解决TPS与成本平衡、内容安全合规等问题,提升大模型应用的稳定性和效率。
1228 136
大模型无缝切换,QwQ-32B和DeepSeek-R1 全都要
|
8月前
|
机器学习/深度学习 人工智能 并行计算
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
|
9月前
|
XML 数据挖掘 API
1688商品详情API接口指南
1688商品详情API是阿里巴巴为开发者提供的一套接口,用于获取1688平台上商品的详细信息,如商品ID、标题、价格、销量、评价、SKU、库存、主图等。通过注册认证、创建应用、构造请求和处理响应,用户可轻松调用API。其应用场景广泛,包括电商网站同步商品信息、内容管理系统生成商品页面、数据分析工具监测市场动态,以及第三方开发者构建比价或库存管理工具等,助力电商从业者优化销售策略与运营效率。
|
8月前
|
程序员 测试技术 开发工具
怎么开发Python第三方库?手把手教你参与开源项目!
大家好,我是程序员晚枫。本文将分享如何开发Python第三方库,并以我维护的开源项目 **popdf** 为例,指导参与开源贡献。Popdf是一个PDF操作库,支持PDF转Word、转图片、合并与加密等功能。文章涵盖从fork项目、本地开发、单元测试到提交PR的全流程,适合想了解开源贡献的开发者。欢迎访问[popdf](https://gitcode.com/python4office/popdf),一起交流学习!
293 21
怎么开发Python第三方库?手把手教你参与开源项目!
|
11月前
|
SQL Cloud Native API
NSDI'24 | 阿里云飞天洛神云网络论文解读——《Poseidon》揭秘新型超高性能云网络控制器
NSDI‘24于4月16-18日在美国加州圣塔克拉拉市举办,汇聚全球网络系统领域的专家。阿里云飞天洛神云网络的两篇论文入选,标志着其创新能力获广泛认可。其中,《Poseidon: A Consolidated Virtual Network Controller that Manages Millions of Tenants via Config Tree》介绍了波塞冬平台,该平台通过统一控制器架构、高性能配置计算引擎等技术,实现了对超大规模租户和设备的高效管理,显著提升了云网络性能与弹性。实验结果显示,波塞冬在启用EIP时的完成时间比Top 5厂商分别快1.8至55倍和2.6至4.8倍。
1126 146