找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 9|回复: 0

探索图变换器中的全局到局部注意机制:实证研究

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-21 15:16:03 | 显示全部楼层 |阅读模式
摘要: 图形变压器(GTs)在图表示学习中显示出相当大的潜力。GTs的架构通常将图神经网络(GNNs)与全局注意机制集成在一起,要么并行,要么作为注意机制的先导,从而产生本地和全局或本地到全局的注意方案。然而,由于全局注意机制主要捕捉节点之间的长距离依赖关系,这些集成方案可能会受到信息丢失的影响,其中GNN学习的本地邻域信息可能会被注意机制稀释。因此,我们提出了G2LFormer,具有一种新颖的全局到本地注意方案,其中浅层网络层使用注意机制捕获全局信息,而深层则使用GNN模块学习本地结构信息,从而防止节点忽视其直接邻居。引入了一种有效的跨层信息融合策略,允许本地层保留全局层的有益信息,并减轻信息丢失,具有可接受的可扩展性折衷。为了验证全局到本地注意方案的可行性,我们将G2LFormer与最先进的线性GTs和GNNs在节点级和图级任务上进行了比较。结果表明,G2LFormer表现出优秀的性能,同时保持线性复杂性。
更新时间: 2025-09-18 11:30:50
领域: cs.LG,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-11-2 07:16 , Processed in 0.066153 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表