|
摘要: 图神经网络(GNNs)提供了一个学习图结构数据的原则性框架,但它们的表达能力经常受到过度压缩的阻碍,即来自远程节点的信息被压缩成固定大小的向量。现有的解决方案,包括图重连和抗瓶颈架构(如Cayley和扩展图),避免了这个问题,但引入了可伸缩性瓶颈。特别是,构建在$SL(2,\mathbb{Z}_n)$上的Cayley图表现出强大的理论性质,但受到立方节点增长$O(n^3)$的困扰,导致内存使用高。为了解决这个问题,本文介绍了Schrier-Coset图传播(SCGP),一种群论增强方法,通过Schreier余类嵌入丰富节点特征,而不改变输入图拓扑结构。SCGP将无瓶颈的连接模式嵌入到紧凑的特征空间中,改善远距离信息传递,同时保持计算效率。通过对标准节点和图分类基准的实证评估,表明SCGP实现了与扩展图和重连GNN基线相当或超出的性能。此外,SCGP在处理分层和模块化图结构方面具有特殊优势,提供了降低推理延迟、改善可伸缩性和低内存占用的优势,使其适用于实时和资源受限的应用。 更新时间: 2025-09-19 13:45:24 领域: cs.LG,cs.AI
|