找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 41|回复: 0

StyleGuard:通过样式扰动防止基于文本到图像模型的样式模仿攻击

[复制链接]

622

主题

0

回帖

1895

积分

金牌会员

积分
1895
发表于 2025-11-2 19:06:21 | 显示全部楼层 |阅读模式
摘要: 最近,文本到图像扩散模型已被广泛用于通过DreamBooth和Textual Inversion等方法进行风格模仿和个性化定制。这引起了关于知识产权保护和生成欺骗性内容的担忧。最近的研究,如Glaze和Anti-DreamBooth,提出使用对抗性噪声保护图像免受这些攻击。然而,最近基于净化的方法,如DiffPure和Noise Upscaling,成功攻击了这些最新的防御措施,显示了这些方法的脆弱性。此外,现有方法在模型间的转移性有限,使它们对未知的文本到图像模型不太有效。为了解决这些问题,我们提出了一种新颖的反模仿方法,StyleGuard。我们提出了一种新颖的风格损失,优化潜在空间中与风格相关的特征,使其偏离原始图像,从而提高了模型不可知的可转移性。此外,为了增强扰动绕过基于扩散的净化的能力,我们设计了一种新颖的放大损失,其中在训练过程中涉及集成净化器和放大器。对WikiArt和CelebA数据集的大量实验表明,StyleGuard在抵抗各种转换和净化方面表现优于现有方法,有效地抵制了各种模型中的风格模仿。此外,StyleGuard对不同的风格模仿方法,包括DreamBooth和Textual Inversion,也有效。代码可在https://github.com/PolyLiYJ/StyleGuard获取。
更新时间: 2025-10-30 13:19:55
领域: cs.CV,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2026-1-12 23:47 , Processed in 0.090365 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表