|
摘要: 大型语言模型(LLMs)在自然语言理解和生成方面的显著能力引发了人们对其在网络安全应用中,包括密码破解方面的潜力的兴趣。在这项研究中,我们通过使用合成用户配置文件,对预训练的LLMs在密码破解方面的效果进行了实证研究。具体而言,我们通过提示它们基于结构化用户属性(例如姓名、出生日期、爱好)生成合理密码,评估了最先进的开源LLMs,例如TinyLLaMA、Falcon-RW-1B和Flan-T5的性能。我们的结果使用Hit@1、Hit@5和Hit@10指标,在明文和SHA-256哈希比较下进行衡量,结果显示了持续糟糕的表现,所有模型在Hit@10上的准确率均低于1.5%。相比之下,传统的基于规则和组合的破解方法表现出明显更高的成功率。通过详细分析和可视化,我们确定了LLMs在应用于密码猜测这一特定领域任务时的生成推理的关键限制。我们的发现表明,尽管它们在语言方面表现出色,但当前的LLMs缺乏领域适应和记忆能力,无法有效地进行密码推理,尤其是在没有对泄露的密码数据集进行监督微调的情况下。这项研究为对抗环境中LLMs的局限性提供了关键见解,并为未来在安全、隐私保护和稳健密码建模方面的努力奠定了基础。 更新时间: 2025-12-31 06:54:39 领域: cs.CR,cs.AI,cs.LG
|