关于算法:SoftPool基于Softmax加权的池化操作-2021新文

36次阅读

共计 1741 个字符,预计需要花费 5 分钟才能阅读完成。

SoftPool 应用 softmax 进行加权池化,可能放弃特色的表白性并且是可微操作。从性能和准确率来看,SoftPool 是目前的惯例池化办法的一个不错的替代品

起源:晓飞的算法工程笔记 公众号

论文: Refining activation downsampling with SoftPool

  • 论文地址:https://arxiv.org/abs/2101.00440v2
  • 论文代码:https://github.com/alexandrosstergiou/SoftPool

Introduction


  池化层是当今卷积神经网络的根底算子,用于升高特色图的大小以及网络的计算量,可能达成平移不变性以及增大后续卷积的感触域。目前的池化办法大多基于最大池化或均匀池化,尽管计算很快内存占用少,但其有很大的晋升空间,次要在于更好地维持特色图的重要信息。

  为此,论文提出了 SoftPool,基于 softmax 增强进行特色图的池化操作。从试验后果来看,SoftPool 在放弃计算和内存高效的状况下,可能很好的保留特色图的重要信息,晋升模型的准确率。

SoftPool Downsampling


  定义大小为 $C\times H\times W$ 的特色图 $a$ 的部分区域 $R$,$R$ 为 2D 空间区域,大小等同于池化核大小 $|R|=k^2$,输入为 $\tilde{a}_R$,对应的梯度为 $\Delta \tilde{a}_i$。

Exponential maximum kernels

  SoftPool 的核心思想在于 softmax 的利用,依据特征值非线性地计算区域 $R$ 的特征值权重:

  权重 $w_i$ 可能保障重要特色的传递,区域 $R$ 内的特征值在反向传递时都至多会有预设的最小梯度。在失去权重 $w_i$ 后,通过加权区域 $R$ 内的特征值失去输入:

  SoftPool 可能很好地参照区域内的激活值散布,遵从肯定的概率分布,而基于最大池化和均匀池化的办法的输入则是无散布的。

Gradient calculation

  SoftPool 是可微的,在反向流传计算时,SoftPool 梯度依据前向时的激活值比例进行计算,若梯度过小,将间接赋予预设的非零最小梯度值。

Feature preservation

  下采样的目标是在放弃特色表白的同时升高分辨率,如果损失了特色的表白,势必会升高整体网络的性能。而论文通过可视化发现,绝对于其它池化操作,SoftPool 可能很好的保留特色表白,算是最大池化和均匀池化的折中。

Spatio-temporal kernels

  论文提到,CNN 网络能够扩大解决 3D 输出,SoftPool 也能够进行对应的适配。假如输出的特色维度为 $C\times H\times W\times T$,$T$ 为工夫维度,SoftPool 的解决区域则从原来的 2D 区域加上工夫维度。

Experiment


[外链图片转存失败, 源站可能有防盗链机制, 倡议将图片保留下来间接上传 (img-uvngvuyN-1651209067982)(https://upload-images.jianshu…)]

  SSI、Pix Sim 和 EMD 为 3 种不同的类似度度量办法,这里次要比照特色的失落以及计算性能。SoftPool 尽管退出了 softmax 加权,但其速度仍然很快。在实现时,先对整图计算 $e^x$,而后将失去的图特色图与原图进行 element-wise 相乘,而后进行均匀池化。

  多种池化办法的比照。

  多个骨干网络上的分类准确率比照。

Discussion


  论文列举了许多池化操作的示意图,从图中能够看到,其实 SoftPool 和早前提出的 LIP 很像,都是用到了 softmax 加权,只是 LIP 额定加了一个小网络对激活值进行线性变换,这么看来,SoftPool 能够算是 LIP 的一个特例。感觉整体论文的内容以及亮点不够多,另外试验局部的 baseline 的准确率有点低,不晓得作者是怎么得来的。

Conclusion


  SoftPool 应用 softmax 进行加权池化,可能放弃特色的表白性并且是可微操作。从性能和准确率来看,SoftPool 是目前的惯例池化办法的一个不错的替代品。



如果本文对你有帮忙,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

正文完
 0