|
摘要: 合成数据是指由模型生成的人工样本。虽然已经验证了它在训练大型语言模型(LLMs)过程中显著提升性能,并且在LLM开发中被广泛采用,但它可能引入的潜在安全风险尚未得到调查。本文系统地评估了合成数据集成训练范式对LLMs在主流中毒和后门攻击下的抵抗力。我们发现这种范式表现出对现有攻击的强大抵抗力,主要得益于中毒数据和用于生成合成样本的查询之间不同的分布模式。为了增强这些攻击的有效性并进一步研究合成数据引入的安全风险,我们引入了一种新颖且通用的攻击框架,即病毒感染攻击(VIA),它能够通过合成数据传播当前攻击,即使在纯净查询的情况下也能实现。受网络安全病毒设计原则的启发,VIA将中毒载荷隐藏在保护性的“外壳”中,并战略性地搜索良性样本中的最佳劫持点,以最大化生成恶意内容的可能性。对数据中毒和后门攻击的广泛实验表明,VIA显著增加了合成数据中的中毒内容,并相应地提高了对下游模型的攻击成功率(ASR),使其达到了与中毒上游模型观察到的水平相当的水平。 更新时间: 2025-09-27 01:39:41 领域: cs.CR,cs.AI,cs.CL
|