找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 5|回复: 0

可解释人工智能中的隐私风险和保护方法:范围审查

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 3 天前 | 显示全部楼层 |阅读模式
摘要: 可解释的人工智能(XAI)已经成为值得信赖的人工智能的支柱,并旨在为本质上不透明的复杂模型带来透明度。尽管将解释纳入模型有很多好处,但迫切需要解决的是向最终用户提供这些额外信息的隐私问题。在本文中,我们进行了一项现有文献的范围审查,以获取有关隐私和可解释性之间冲突的详细信息。使用范围审查的标准方法,我们从2019年1月至2024年12月发表的1,943篇研究中提取了57篇文章。审查解答了3个研究问题,以帮助读者更好地理解这一主题:(1)在释放AI系统的解释时存在哪些隐私风险?(2)研究人员目前采用了哪些方法来实现XAI系统的隐私保护?(3)什么构成了隐私保护解释?基于所选研究综合的知识,我们对XAI中的隐私风险和保护方法进行了分类,并提出了隐私保护解释的特征,以帮助研究人员和实践者了解符合隐私要求的XAI的要求。最后,我们确定了在平衡隐私与其他系统愿望方面的挑战,并提出了实现隐私保护XAI的建议。我们期望这篇审查将阐明隐私和可解释性之间复杂关系,二者都是值得信赖的人工智能的基本原则。
更新时间: 2025-10-23 17:10:17
领域: cs.AI,cs.CR,cs.ET

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 03:57 , Processed in 0.072626 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表