找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 1|回复: 0

少即是多:通过最小化测试时间干预改进LLM推理

[复制链接]

622

主题

0

回帖

1895

积分

金牌会员

积分
1895
发表于 2026-1-4 23:13:32 | 显示全部楼层 |阅读模式
摘要: 最近在大型语言模型(LLMs)方面取得的进展主要集中在测试时的扩展,以通过增加推理计算来改善推理能力,但往往以效率为代价。我们重新审视了测试时的行为,并发现了一个简单但尚未充分探索的现象:推理不确定性高度局部化,只有一小部分高熵令牌主要影响输出的正确性。受此启发,我们提出了Minimal Test-Time Intervention(MTI),这是一个无需训练的框架,通过最小的开销提高推理准确性和稳定性。MTI包括:(i)选择性CFG干预,在不确定位置应用无需分类器的指导;和(ii)轻量级负提示指导,利用主模型的KV缓存有效地近似无条件解码。MTI在一般、编码和STEM任务中均取得了一致的收益,例如在六个DeepSeek-R1-7B基准测试中平均提高了9.28%,使用Ling-mini-2.0在AIME2024上提高了11.25%,同时保持高效。
更新时间: 2025-12-31 07:36:24
领域: cs.CL,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2026-1-13 07:01 , Processed in 0.093939 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表