找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 25|回复: 0

AttentionDrop:一种用于Transformer模型的新型正则化方法

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-22 19:54:16 | 显示全部楼层 |阅读模式
摘要: Transformer-based architectures在自然语言处理、计算机视觉和语音处理等领域的广泛任务中取得了最先进的性能。然而,它们的巨大容量往往会导致过拟合,特别是在训练数据有限或含噪声的情况下。在这项研究中,提出了一种统一的家族随机正则化技术,即AttentionDrop及其三种不同变体,直接作用于自注意力分布。Hard Attention Masking随机将每个查询的前k个注意力logits置零,以鼓励多样化的上下文利用,Blurred Attention Smoothing通过在注意力logits上应用动态高斯卷积来扩散过于尖锐的分布,Consistency-Regularized AttentionDrop通过基于KL的一致性损失在多个独立的AttentionDrop扰动下强制输出稳定性。研究结果表明,AttentionDrop始终在标准Dropout、DropConnect和R-Drop基线上提高了准确性、校准性和对抗鲁棒性。
更新时间: 2025-09-19 11:47:37
领域: cs.CV,cs.AI,cs.LG

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 11:03 , Processed in 0.075242 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表