MIT-新研究论文通过网络解剖解释深层视觉表征

最近的深度卷积神经网络(CNN)的成功取决于学习隐藏的表示,这些表示可以总结数据背后变化的重要因素。在这项工作中,我们描述了Network Dissection,这是一种通过为各个单元提供有意义的标签来解释网络的方法。

所提出的方法通过评估各个隐藏单元和视觉语义概念之间的对齐来量化 CNN 表示的可解释性。通过识别最佳对齐,单元被赋予可解释的标签,范围包括颜色,材料,纹理,部件,对象和场景。该方法揭示了深度表示比在随机等效强大的基础上更加透明和可解释。

新闻来源:IEEE Xplore

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理