找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 39|回复: 0

动态正交持续微调以减轻灾难性遗忘

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-30 19:37:06 | 显示全部楼层 |阅读模式
摘要: 灾难性遗忘仍然是大型语言模型(LLMs)在持续学习中面临的重要挑战,模型在不访问过去数据集的情况下,在新的顺序数据上微调时很难保持对历史任务的性能。在本文中,我们首先揭示了在微调过程中功能方向漂移是现有基于正则化方法在长期LLM持续学习中失败的关键原因。为了解决这个问题,我们提出了一种新颖的方法,即动态正交持续(DOC)微调,该方法跟踪这些功能方向的漂移,并在微调过程中动态更新它们。此外,通过调整新任务参数的梯度使其与历史功能方向正交,我们的方法减轻了新旧任务之间的干扰。对各种LLM持续学习基准的大量实验表明,这种方法优于先前的方法,有效减少了灾难性遗忘,并为连续的LLM微调提供了一个稳健的工具。我们的代码可以在https://github.com/meloxxxxxx/DOC找到。
更新时间: 2025-09-28 13:55:05
领域: cs.LG,cs.AI,cs.CL,cs.CR,math.OC

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 13:27 , Processed in 0.077260 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表