找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 4|回复: 0

关于表示的几何和拓扑:模加法的流形

[复制链接]

622

主题

0

回帖

1895

积分

金牌会员

积分
1895
发表于 2026-1-4 22:17:24 | 显示全部楼层 |阅读模式
摘要: 时钟和比萨解释与架构相关联,这些架构在统一或可学习的注意力方面有所不同,旨在说明不同的架构设计可以产生用于模块化加法的不同电路。在这项工作中,我们展示了这并非如此,无论是统一注意力还是可训练的注意力架构都通过拓扑和几何等价表示实现了相同的算法。我们的方法超越了对单个神经元和权重的解释。相反,我们确定了与每个学习表示对应的所有神经元,然后将研究这个神经元集体作为一个实体。这种方法揭示了每个学习表示是一个我们可以利用拓扑工具研究的流形。基于这一认识,我们可以统计分析跨数百个电路学习到的表示,以展示从常见的深度学习范式中自然产生的学习模块化加法电路之间的相似性。
更新时间: 2025-12-31 18:53:19
领域: cs.LG

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2026-1-12 17:00 , Processed in 0.072452 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表