找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 2|回复: 0

压缩以留下深刻印象:利用100个样本上的单一梯度步骤进行高效LLM适应

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 3 天前 | 显示全部楼层 |阅读模式
摘要: 最近,Sharma等人提出了一种称为Layer-SElective-Rank reduction(LASER)的方法,该方法表明修剪精心选择的LLM权重矩阵的高阶分量可以提高下游准确性--而无需任何基于梯度的微调。然而,LASER的详尽的、每个矩阵搜索(每个都需要完整的数据集正向传递)使其不适用于快速部署。我们证明可以消除这种开销,并发现:(i)只需要检查一小部分精心选择的矩阵--消除逐层扫描,(ii)每个矩阵的奇异值的梯度可以确定哪些矩阵值得减少,(iii)通过允许矩阵行围绕多个子空间聚类并分解每个簇,进一步减少对原始训练数据的过拟合,并将准确性提高最多24.6个百分点,最后,(iv)我们发现,仅在100个样本上进行评估而不是整个训练数据--既用于计算指示梯度又用于测量最终准确性--足以进一步减少搜索时间;我们解释这是因为对下游任务的适应主要取决于提示风格,而不是数据集大小。因此,我们展示了将这些发现结合起来可以为下游任务提供快速和稳健的自适应算法。总的来说,通过对100个示例进行单一梯度步骤并快速扫描顶级候选层和因子分解技术,我们可以将LLM调整到新数据集--完全无需微调。
更新时间: 2025-10-23 17:58:01
领域: cs.LG,cs.AI,cs.CL,cs.CV

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 06:14 , Processed in 0.071510 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表