大盘点CVPR-2020目标检测论文精选

52次阅读

共计 2437 个字符,预计需要花费 7 分钟才能阅读完成。

本文为学习笔记

参加:王博 kings,Sophia

最近完结的 CVPR 2020 在推动物体检测方面做出了巨大贡献。在本文中,咱们将介绍一些特地令人印象粗浅的论文。

1、A Hierarchical Graph Network for 3D Object Detection on Point Clouds(用于点云 3D 指标检测的分层图网络)

HGNet 蕴含三个次要组件:

  • 基于 GConv 的 U 形网络(GU-net)
  • 提案生成者
  • 提案推理模块(ProRe Module)- 应用齐全连贯的图对提案进行推理

作者提出了一种重视形态的 GConv(SA-GConv),以捕捉部分形态特色。这是通过对绝对几何地位进行建模以形容对象形态来实现的。

基于 SA-GConv 的 U 型网络可捕捉多级性能。而后将它们通过投票模块映射到雷同的特色空间,并用于生成倡议。下一步,基于 GConv 的提案推理模块应用提案来预测边界框。

以下是在 SUN RGB-D V1 数据集上取得的一些性能后果。

2、HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection(HVNet: 基于激光雷达的三维物体检测的混合体素网络)

在本文中,作者提出了混合体素网络(HVNet),这是一个用于基于点云的 3D 对象检测主动驾驶的一级网络。

本文中应用的体素特色编码(VFE)办法蕴含三个步骤:

  • 体素化—将点云调配给 2D 体素网格
  • 体素特征提取 - 计算与网格相干的逐点特色,该点特色被馈送到 PointNet 款式特色编码器
  • 投影 - 将逐点特色聚合到体素级特色并将其投影到其原始网格。这造成伪图像特色图

体素的大小在 VFE 办法中十分重要。较小的体素尺寸能够捕捉更精密的几何特色。它们也更善于对象本地化,但推理工夫更长。应用较粗的体素能够取得更快的推理速度,因为这会导致较小的特色图。然而,它的性能较差。

作者提出了混合体素网络(HVNet),以实现细粒度体素性能的利用。它由三个步骤组成:

  • 多尺度体素化 - 创立一组特色体素尺度并将它们调配给多个体素。
  • 混合体素特征提取 - 计算每个比例的体素相干特色,并将其输出到关注特色编码器(AVFE)中。每个体素比例尺上的因素都是逐点连贯的。
  • 动静因素投影 - 通过创立一组多比例我的项目体素将因素投影回伪图像。

这是在 KITTI 数据集上取得的后果。

3、Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud(Point-GNN:用于点云中 3D 对象检测的图神经网络)

本文的作者提出了一种图神经网络 -Point-GNN- 从 LiDAR 点云中检测物体。网络预测图形中每个顶点所属的对象的类别和形态。Point-GNN 具备主动回归机制,能够一次检测多个物体。

所提出的办法包含三个局部:

  • 图形构建:体素降采样点云用于图形构建
  • T 迭代的图神经网络
  • 边界框合并和评分

以下是在 KITTI 数据集上取得的后果:

代码:https://github.com/WeijingShi/Point-GNN

4、Camouflaged Object Detection

本文解决了检测嵌入在其周围环境中的物体的挑战 - 假装物体检测(COD)。作者还介绍了一个名为 COD10K 的新数据集。它蕴含 10,000 张图像,笼罩许多天然场景中的假装物体。它具备 78 个对象类别。图像带有类别标签,边界框,实例级别和消光级别的标签正文。

作者开发了一种称为搜寻标识网络(SINet)的 COD 框架。该代码在这里可用:

https://github.com/DengPingFan/SINet/

网络有两个次要模块:

  • 搜寻模块(SM),用于搜寻假装的物体
  • 用于检测物体的辨认模块(IM)

以下是在各种数据集上取得的后果:

5、Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector

本文提出了一个短时指标检测网络,该网络的指标是检测不可见类别的指标,并带有一些正文示例。

他们的办法包含留神 RPN,多重关系检测器和比照训练策略。该办法利用少拍反对集和查问集之间的相似性来标识新对象,同时还缩小了谬误标识。作者还奉献了一个新的数据集,其中蕴含 1000 个类别,这些类别的对象具备高质量的正文。https://github.com/fanq15/Few-Shot-Object-Detection-Dataset

该网络体系结构由一个权重共享框架组成,该框架具备多个分支 - 一个分支是查问集,其余分支用于反对集。权重共享框架的查问分支是 Faster R-CNN 网络。

作者介绍了带有多关系模块的注意力 RPN 和检测器,以在反对和查问中的潜在框之间产生精确的解析。

以下是在 ImageNet 数据集上取得的一些后果。

以下是在许多数据集上取得的一些察看后果。

6、D2Det: Towards High-Quality Object Detection and Instance Segmentation

本文的作者提出了 D2Det,一种解决精确定位和准确分类的办法。他们引入了密集部分回归,能够预测对象提案的多个密集框偏移。这使他们可能实现准确的定位。

作者还介绍了辨别 RoI 池计划,以实现精确的分类。合并计划从提案的几个子区域进行采样,并执行自适应加权以取得区别特色。

该代码位于:https://github.com/JialeCao001/D2Det

该办法基于规范的 Faster R-CNN 框架。在这种办法中,Faster R-CNN 的传统盒偏移回归被提议的密集部分回归所代替。在该办法中,通过判别式 RoI 池加强了分类。

在两阶段办法中,第一阶段应用区域提议网络(RPN),第二阶段应用独自的分类和回归分支。分类分支基于判断池。部分回归分支的指标是对象的精确定位。

以下是在 MS COCO 数据集上取得的后果:


链接:https://heartbeat.fritz.ai/cv…

计算机视觉联盟 报道 | 公众号 CVLianMeng

正文完
 0