|
摘要: 这份立场文件认为,在负责任人工智能(RAI)指标中经常观察到的理论不一致性,例如不同的公平定义或在准确性和隐私之间的权衡,应被视为一种有价值的特征,而不是需要消除的缺陷。我们认为,通过将指标视为不同的目标来导航这些不一致性,可以产生三个关键好处:(1)规范多元主义:保持一整套潜在相互矛盾的指标确保了在RAI中固有的多样化道德立场和利益相关者价值得到充分代表。(2)认识论完整性:使用多个,有时相互冲突的指标可以更全面地捕捉多方面的伦理概念,从而比任何单一简化定义更好地保留有关这些概念的更多信息的准确性。(3)隐式正则化:联合优化理论上相互冲突的目标会阻止过度拟合到一个特定指标,从而将模型引向在面对现实世界复杂性时具有增强泛化性和鲁棒性的解决方案。相比之下,通过简化或修剪指标来强制实现理论上的一致性的努力会冒险减少这种价值多样性,失去概念深度,降低模型性能。因此,我们主张在RAI理论和实践中进行转变:从陷入不一致性到描述可接受的不一致性阈值,并阐明在实践中允许强健、近似一致性的机制。 更新时间: 2025-10-30 01:51:54 领域: cs.AI,cs.CY
|