|
摘要: 作为一种新的有前途的方法,现有的机器遗忘(MU)工作通常强调理论公式或优化目标,以实现知识的移除。然而,在实际场景中部署时,这些解决方案通常面临可扩展性问题,并且必须解决诸如完全访问原始数据集和模型等实际要求。与现有方法相比,我们将分类训练视为一个顺序过程,在该过程中类别会依次学习,我们称之为归纳方法。然后通过反转最后一个训练序列来进行遗忘。这通过在模型末尾添加一个投影重新分配层来实现。这种方法不需要完全访问原始数据集或模型,解决了现有方法的挑战。这使得将其作为输出过滤器模块化部署到现有分类管道中只需进行最小的修改。我们在多个数据集上进行了多次实验,包括图像(使用基于CNN的CIFAR-10/100模型)和表格数据集(使用基于树的Covertype模型)。实验结果显示,输出结果与完全重新训练的模型具有一致的相似性,同时将计算成本大大降低。这展示了我们解决方案的适用性、可扩展性和系统兼容性,同时在更实际的环境中保持输出性能。 更新时间: 2025-10-30 08:09:37 领域: cs.LG,cs.AI,68T09 68T09
|