|
摘要: 可解释的人工智能越来越被用于理解深度学习模型的决策过程,并在其采用中创造可信度。然而,尽管单目深度估计(MDE)在实际应用中广泛部署,但其可解释性仍然大部分未被探索。在这项工作中,我们研究了如何分析MDE网络,将输入图像映射到预测的深度图中。更详细地说,我们研究了广泛应用的特征归因方法,包括显著性图、集成梯度和注意力展开,并在不同计算复杂模型上进行分析,如轻量级网络METER和深度网络PixelFormer。我们通过选择性扰动由可解释性方法识别的最相关和不相关像素,并分析这些扰动对模型输出的影响来评估生成的视觉解释质量。此外,由于现有的评估指标在衡量MDE的视觉解释的有效性方面可能存在一些限制,我们另外引入了归因忠实度。该指标通过评估特征归因的一致性与预测的深度图来评估其可靠性。实验结果表明,显著性图和集成梯度对于MDE轻量级和深度模型分别突出显示最重要的输入特征具有良好的性能。此外,我们展示了归因忠实度有效地识别出一个可解释性方法是否无法产生可靠的视觉图,即使在传统指标可能表明满意结果的情况下也是如此。 更新时间: 2025-09-19 13:45:18 领域: cs.CV,cs.AI
|