MIT-新研究论文通过网络解剖解释深层视觉表征

37次阅读

共计 239 个字符,预计需要花费 1 分钟才能阅读完成。

最近的深度卷积神经网络(CNN)的成功取决于学习隐藏的表示,这些表示可以总结数据背后变化的重要因素。在这项工作中,我们描述了 Network Dissection,这是一种通过为各个单元提供有意义的标签来解释网络的方法。

所提出的方法通过评估各个隐藏单元和视觉语义概念之间的对齐来量化 CNN 表示的可解释性。通过识别最佳对齐,单元被赋予可解释的标签,范围包括颜色,材料,纹理,部件,对象和场景。该方法揭示了深度表示比在随机等效强大的基础上更加透明和可解释。

新闻来源:IEEE Xplore

正文完
 0