找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 39|回复: 0

TGPO:树导引的偏好优化用于稳健的网络代理强化学习

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-22 20:11:34 | 显示全部楼层 |阅读模式
摘要: 随着大型语言模型和视觉-语言模型的快速发展,将大型模型用作网络代理对于自动化网络交互变得至关重要。然而,使用强化学习训练网络代理面临着一些关键挑战,包括信用分配错误、注释成本高昂以及奖励稀疏。为了解决这些问题,我们提出了Tree-Guided Preference Optimization(TGPO),这是一个离线强化学习框架,提出了一种树形轨迹表示法,合并跨轨迹的语义相同状态,以消除标签冲突。我们的框架还包括一个过程奖励模型,通过子目标进展、冗余检测和动作验证自动生成细粒度奖励。此外,一个动态加权机制在训练过程中优先考虑高影响决策点。对Online-Mind2Web和我们自行构建的C-WebShop数据集的实验表明,TGPO明显优于现有方法,在更少的冗余步骤中实现更高的成功率。
更新时间: 2025-09-19 02:13:09
领域: cs.LG,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 08:24 , Processed in 0.079326 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表