找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 9|回复: 0

检索增强语言模型是否知道自己不知道?

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-22 19:50:17 | 显示全部楼层 |阅读模式
摘要: 现有的大型语言模型(LLMs)偶尔会生成看似合理但事实不正确的回复,被称为幻觉。研究人员主要采用两种方法来减轻幻觉,即检索增强语言模型(RALMs)和拒绝后训练。然而,当前的研究主要强调它们各自的有效性,而忽视了对RALMs的拒绝能力的评估。在这项研究中,我们提出了一个基本问题:RALMs是否知道自己不知道?具体而言,我们提出了三个问题。首先,RALMs在不同的内部和外部知识状态下是否很好地校准?我们考察了各种因素的影响。与预期相反,我们发现LLMs表现出明显的过度拒绝行为。那么,拒绝后训练如何影响过度拒绝问题?我们调查了拒绝感知指导调整和上下文微调方法。我们的结果显示,上下文微调可以缓解过度拒绝问题,但R调节可能会放大该问题。然而,我们还发现,拒绝能力可能会与答案的质量相冲突。最后,我们为拒绝后训练模型开发了一种简单而有效的拒绝方法,以提高它们在拒绝和正确答案方面的整体答案质量。我们的研究提供了对RALM系统中重要因素影响的更全面的理解。
更新时间: 2025-09-19 12:43:33
领域: cs.CL,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 06:14 , Processed in 0.078090 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表