找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 10|回复: 0

超越邻域的注意力:重新激活Transformer用于图聚类

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-21 15:03:50 | 显示全部楼层 |阅读模式
摘要: 注意机制已经成为现代神经网络的基石,在各个领域推动了突破。然而,在图结构化数据中,捕捉拓扑连接是至关重要的,但与图神经网络相比,其应用仍未得到充分探索并表现不佳,特别是在图聚类任务中。图神经网络倾向于过分强调邻域聚合,导致节点表示的同质化。相反,Transformer倾向于过度全局化,强调远距离节点,而牺牲了有意义的局部模式。这种二元对立引发了一个关键问题:注意力在无监督图学习中固有多余吗?为了解决这个问题,我们进行了全面的实证分析,揭示了图神经网络和Transformer在图聚类中互补性的弱点。受到这些见解的启发,我们提出了一种新颖的架构——关注图聚类网络(AGCN),重新解释了图是注意力的概念。AGCN直接将注意机制嵌入到图结构中,实现了有效的全局信息提取,同时保持对局部拓扑线索的敏感性。我们的框架结合了理论分析,将AGCN的行为与图神经网络和Transformer进行对比,并引入了两项创新:(1)KV缓存机制以提高计算效率,(2)一对一边缘对比损失以增强注意空间的区分能力。大量实验证明,AGCN优于最先进的方法。
更新时间: 2025-09-18 14:51:13
领域: cs.LG,cs.AI,cs.NI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-11-1 15:18 , Processed in 0.071656 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表