摘要: 最近,文本到图像扩散模型已被广泛用于通过DreamBooth和Textual Inversion等方法进行风格模仿和个性化定制。这引起了关于知识产权保护和生成欺骗性内容的担忧。最近的研究,如Glaze和Anti-DreamBooth,提出使用对抗性噪声保护图像免受这些攻击。然而,最近基于净化的方法,如DiffPure和Noise Upscaling,成功攻击了这些最新的防御措施,显示了这些方法的脆弱性。此外,现有方法在模型间的转移性有限,使它们对未知的文本到图像模型不太有效。为了解决这些问题,我们提出了一种新颖的反模仿方法,StyleGuard。我们提出了一种新颖的风格损失,优化潜在空间中与风格相关的特征,使其偏离原始图像,从而提高了模型不可知的可转移性。此外,为了增强扰动绕过基于扩散的净化的能力,我们设计了一种新颖的放大损失,其中在训练过程中涉及集成净化器和放大器。对WikiArt和CelebA数据集的大量实验表明,StyleGuard在抵抗各种转换和净化方面表现优于现有方法,有效地抵制了各种模型中的风格模仿。此外,StyleGuard对不同的风格模仿方法,包括DreamBooth和Textual Inversion,也有效。代码可在https://github.com/PolyLiYJ/StyleGuard获取。 更新时间: 2025-10-30 13:19:55 领域: cs.CV,cs.AI
|