|
摘要: 在联邦学习(FL)中进行“遗忘”(Unlearning)存在着重大挑战,因为模型会随着复杂的继承关系而不断增长和演变。当使用区块链来确保FL的完整性和可追溯性时,这种复杂性会被放大,因为需要编辑多个相互关联的区块链记录并更新所有继承模型,从而使整个过程变得更加复杂。在本文中,我们介绍了一种新颖的框架——Blockchained Federated Unlearning(BlockFUL),它具有一个由实时链和存档链组成的双链结构,用于在Blockchained FL中实现“遗忘”功能。BlockFUL引入了两种新的遗忘范式,即并行和顺序范式,可以通过基于梯度上升和重新训练的遗忘方法有效实现。这些方法通过实现高效的共识操作和降低计算成本,增强了跨多个继承模型的遗忘过程。我们进行了大量实验证实,这些方法有效减少了数据依赖性和操作开销,从而提高了在CIFAR-10和Fashion-MNIST数据集上使用AlexNet、ResNet18和MobileNetV2模型的BlockFUL中继承模型的总体性能。 更新时间: 2025-09-28 03:01:54 领域: cs.CR,cs.AI,cs.CV
|