|
摘要: 随着人工智能的快速发展,大型语言模型(LLMs)在自然语言处理(NLP)领域展示出了卓越的能力,包括内容生成、人机交互、机器翻译和代码生成等方面。然而,它们的广泛应用也引发了重大的安全性关注。特别是,在对抗性环境下,LLM生成的内容可能表现出有毒、偏见或错误信息等不安全行为,这引起了学术界和工业界日益关注。尽管许多研究尝试评估这些风险,但关于LLMs安全评估的全面系统调查仍然缺乏。本研究旨在填补这一空白,通过呈现LLMs安全评估最新进展的结构化概述来实现这一目标。具体来说,我们提出了一个四维分类法:(i)为什么评估,探讨了LLMs安全评估的背景,它们与一般LLMs评估的区别,以及这种评估的重要性;(ii)什么要评估,基于关键能力,检查和分类现有的安全评估任务,包括毒性、稳健性、伦理、偏见和公平性、真实性和相关方面;(iii)在哪里评估,总结了目前在安全评估中使用的评估指标、数据集和基准;(iv)如何评估,基于评估者的角色对现有主流评估方法进行了回顾,并介绍了一些整合整个评估流程的评估框架。最后,我们确定了LLMs安全评估面临的挑战,并提出了有前途的研究方向,以促进这一领域的进一步发展。我们强调了优先考虑安全评估的必要性,以确保LLMs在实际应用中的可靠和负责任的部署。 更新时间: 2025-10-30 06:22:33 领域: cs.CL,cs.AI,cs.CR
|