找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 17|回复: 0

分布对齐解码用于高效LLM任务适应

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-22 19:55:09 | 显示全部楼层 |阅读模式
摘要: 将十亿参数的语言模型调整到下游任务仍然是昂贵的,即使采用参数高效微调(PEFT)也是如此。我们将任务适应重新构建为输出分布对齐:目标是在解码过程中直接将输出分布引导向任务分布,而不是通过权重更新间接引导。基于这一观点,我们引入了Steering Vector Decoding(SVD),这是一种轻量级、与PEFT兼容且在理论上有基础的方法。我们首先进行短暖启动微调,并从预热和预先训练模型的输出分布之间的Kullback-Leibler(KL)散度梯度中提取一个任务感知的引导向量。然后使用这个引导向量来引导解码过程,将模型的输出分布引导向任务分布。我们在理论上证明了SVD与完全微调的梯度步骤是一阶等价的,并为引导向量的强度提供了全局最优解。在三个任务和九个基准测试中,搭配四种标准PEFT方法的SVD能够将多项选择准确度提高最多5个百分点,开放式真实性提高2个百分点,并在常识数据集上实现类似的增益(1-2个百分点)而不增加PEFT适配器以外的可训练参数。因此,SVD为大型语言模型提供了一条轻量级、在理论上有基础的更强任务适应路径。
更新时间: 2025-09-19 11:35:56
领域: cs.CL,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 06:16 , Processed in 0.078000 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表