DRConv旷视提出区域感知动态卷积多任务性能提升-CVPR-2020

6次阅读

共计 3593 个字符,预计需要花费 9 分钟才能阅读完成。

论文提出 DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,从实验结果来看,DRConv 符合设计的预期,在多个任务上都有不错的性能提升

来源:晓飞的算法工程笔记 公众号

论文: Dynamic Region-Aware Convolution

  • 论文地址:https://arxiv.org/pdf/2003.12243.pdf

Introduction


  目前主流的卷积操作都在空间域进行权值共享,而如果想得到更丰富的信息,只能通过增加卷积的数量来实现,这样不仅计算低效,也会带来网络优化困难。与主流卷积不同,local conv 在不同的像素位置使用不同的权值,这样能够高效地提取丰富的信息,主要应用在人脸识别领域,但 local conv 不仅会带来与特征图大小相关的参数量,还会破坏平移不变性。

  考虑到以上两种卷积的优劣,论文提出了 DRConv(Dynamic Region-Aware Convolution),DRConv 的结构如图 1,首先通过标准卷积来生成 guided feature,根据 guided feature 将空间维度分成多个区域,卷积核生成模块 $G(\cdot)$ 根据输入图片动态生成每个区域对应的卷积核。DRConv 能够可学习地为不同的像素位置匹配不同的卷积核,不仅具有强大的特征表达能力,还可以保持平移不变性。由于卷积核是动态生成的,能比 local conv 减少大量的参数,而整体计算量几乎和标准卷积一致。
  论文的主要贡献如下:

  • 提出 DRConv,不仅具有强大的语义表达能力,还能很好地维持平移不变性。
  • 巧妙的设计了可学习 guided mask 的反向传播,明确区域共享的规则 (region-sharing-pattern),并根据损失函数回传的梯度进行更新。
  • 只需简单地替换,DRConv 就能在图片分类,人脸识别,目标检测和语义分割等多个任务上达到很好的性能。

Our Apporach


Dynamic Region-Aware Convolution

  对于标准卷积,定义输入 $X\in \mathbb{R}^{U\times V\times C}$,空间维度 $S\in \mathbb{R}^{U\times V}$,输出 $Y\in \mathbb{R}^{U\times V\times O}$,权重 $W\in \mathbb{R}^C$,输出的每个 channel 的计算如公式 1,$*$ 为二维卷积操作。

  对于基础的 local conv,定义非共享权重 $W\in \mathbb{R}^{U\times V\times C}$,输出的每个 channel 计算如公式 2,其中 $W_{u,v,c}^{(o)}$ 表示位置 $(u,v)$ 上的独立非共享卷积核,即卷积在特征图上移动时,每次更换不同的卷积核。

  结合以上公式,定义 guided mask$M={S_0, \cdots,S_{m-1}}$ 用来表示空间维度划分的 $m$ 个区域,$M$ 根据输入图片的特征进行提取,每个区域 $S_t(t\in [0, m-1])$ 仅使用一个共享的卷积核。定义卷积核集 $W=[W_0,\cdots,W_{m-1}]$,卷积核 $W_t \in \mathbb{R}^C$ 对应于区域 $S_t$。输出的每个 channel 的计算如公式 3,即卷积在特征图上移动时,每次根据 guided mask 更换对应的卷积核。
  从上面的描述可以看到,DRConv 包含两个主要部分:

  • 使用可学习的 guided mask 来将空间维度划分为多个区域,如图 1 所示,guided mask 中相同颜色的像素归为同一区域,从语义的角度来看,即将语义相似的特征归为统一区域。
  • 对于每个共享区域,使用卷积核生成模块来生成定制的卷积核来进行常规的 2D 卷积操作,定制的卷积核能够根据输入图片的重要特征自动地进行调节。

Learnable guided mask

  作为 DRConv 的重要部分,guided mask 决定了卷积核在空间维度上的分布,该模块由损失函数指导优化,从而能够适应输入的空间信息变化,从而改变卷积核的分布。

  对于包含 $m$ 个 channel 的 $k\times k$DRConv,定义 $F$ 为 guided feature,$M$ 为 guided mask,$M$ 上的每个位置 $(u,v)$ 的值计算如公式 4,函数 $argmax(\cdot)$ 输出最大值的下标,$F_{u,v}$ 为位置 $(u,v)$ 上的 guided feature 向量,所以 $M$ 的值为 $[0, m-1]$,用来指示该位置对应的卷积下标。

  为了让 guided mask 可学习,必须得到用来生成 guided feature 的权值的梯度,但由于 $argmax(\cdot)$ 的使用导致 guided feature 的梯度无法计算,所以论文设计了类似的梯度。

  • Forward propagation

  根据公式 4 获得 guided mask,根据公式 5 得到每个位置 $(u,v)$ 得到卷积核 $\tilde{W}_{u,v}$,其中 $W_{M_{u,v}}$ 是 $G(\cdot)$ 生成的卷积核集 $[W_0, \cdots, W_{m-1}]$ 中的一个,$M_{u,v}$ 是 guided feature 在位置 $(u,v)$ 上值最大的 channel 下标,通过这种方式来 $m$ 个卷积核与所有位置的关系,将空间像素分为 $m$ 个组。使用相同卷积核的像素包含相似的上下文信息,主要由于具有平移不变性标准卷积将这些信息传递给了 guided feature。

  • Backward propagation

  为了使梯度得到回传,首先用 $\hat{F}$ 来代替 guided mask 的 one-hot 表示,计算如公式 6 所示,在 channel 维度上进行 $softmax(\cdot)$,期望 $\hat{F}_{u,v}^j$ 能尽可能地接近 0 和 1,这样 $\hat{F}_{u,v}^j$ 与 guided mask 的 one-hot 表示将非常相似。公式 5 可以看作是卷积核集 $[W_0,\cdots,W_{m-1}]$ 乘以 $M_{u,v}$ 的 one-hot 表示,这里替换为 $\hat{F}_{u,v}^j$。

  $\hat{F}_{u,v}^j$ 的梯度计算如公式 7,$\langle, \rangle $ 为点积,$\bigtriangledown_{\cdot} \mathcal{L}$ 表示 guided mask 对应 loss 函数的梯度,如图 a,公式 7 近似于公式 5 的反向传播。

  公式 8 为公式 6 的反向传播,$\odot$ 为逐元素相乘,如果不设计特殊的反向传播,SGD 将不能对相关的参数进行优化,因为函数 $argmax(\cdot)$ 是不可导的。因此,$softmax(\cdot)$ 是用来接近 $argmax(\cdot)$,通过替换函数将梯度回传到 guided feature,是的 guided mask 可学习。

Dynamic Filter: Filter generator module

  在 DRConv 中,使用卷积核生成模块来生成不同区域的卷积核,由于不同图片的特征不同,在图片间共享的卷积核不能高效地提取其独有的特征,需要定制化的特征来专注不同图片的特性。

  定义输入 $X\in \mathbb{R}^{U\times V\times C}$,包含两层卷积的卷积核生成模块 $G(\cdot)$,$m$ 个卷积 $W=[W_0,\cdots,W_{m-1}]$,每个卷积仅用于区域 $R_t$。如图 b 所示,为了获得 $m$ 个 $k\times k$ 卷积,先使用自适应平均池化将 $X$ 下采样为 $k\times k$,然后使用两个连续的 $1\times 1$ 卷积,第一个使用 $sigmoid(\cdot)$ 进行激活,第二个设定 $group=m$,不使用激活。卷积核生成模块能够增强网络获取不同图片特性的能力,由于根据输入的特征生成卷积核,每个卷积核的关注点能够根据输入的特性进行自动地调整。

Experiments


Classification

Face Recognition

COCO Object Detection and Segmentation

Ablation Study


Visualization of dynamic guided mask

Different model size

Different region number

Different spatial size

CONCLUSION


  论文提出 DRConv,很好地结合了局部共享的思想并且保持平移不变性,包含两个关键结构,首先使用 guided mask 对特征图中的像素划分到不同的区域,其次使用卷积核生成模块动态生成区域对应的卷积核。从实验结果来看,DRConv 符合设计的预期,特别是图 3 的 guided mask 的可视化结果,在多个任务上都有不错的性能提升。



如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

正文完
 0