关于神经网络:带你换个角度理解图卷积网络

2次阅读

共计 1517 个字符,预计需要花费 4 分钟才能阅读完成。

摘要: 本文带大家从另一个角度来了解和意识图卷积网络的概念。

本文分享自华为云社区《技术综述十二:图网络的基本概念》,原文作者:一笑倾城。

根底概念

笔者认为,图的核心思想是学习一个函数映射 f(.)f(.),借助该映射,图中的节点能够聚合本人的特色与街坊节点的特色,从而生成该节点的新特色示意。

Figure 1. 图的个别推理过程 [1]

图神经网络 Vs. 卷积神经网络

如图 2 所示,卷积神经网络的输出数据个别是规定的矩阵类型数据,例如图片。每个节点和其它节点的空间关系是固定的。而图神经网络的输出数据个别体现为不规则的拓扑构造,节点与节点的关系非常复杂,节点间的空间关系个别不做束缚,节点间是否存在连贯以及连贯的数量不做束缚。简单的网络还波及到连贯的方向和子图等概念。

Figure 2. 图网络和卷积网络 [1]

如图 3 所示,如果将图的每个节点等价视为图像中的每个像素,其实,图的工作过程能够类比 CV 中的经典问题:semantic segmentation。

Figure 3. semantic segmentation[2]

图的根底组件及其实现

图在工作过程中,次要须要解决的问题有两个,一个是节点信息的提炼形式;另一个是邻近节点的搜寻形式。整顿如下:

邻近节点的搜寻形式:

  • 每个节点思考全副其它节点
  • 基于欧氏间隔,只搜寻近邻 N 个节点

节点信息的提炼形式:

  • MLP+Max Pooling 间接进行特色交融
  • 基于 attention,对周边节点进行加权均匀

    1. 一般 attention
    2. Self-attention (Bert/Transformer)

其中,邻近节点的搜寻形式有两种,基于 Bert 作为图卷积网络的计划,个别是全副节点对立输出,每个节点在进行 self-attention 时,对立思考其它节点,因而,能够视为全局搜寻,典型的样例是 LayoutLM。而基于某种间隔度量搜寻邻近的节点的形式,一般来说更加重视部分信息。能够根据特定工作进行一些定制化的间隔设计。毛病是过于重视部分信息,不能让图网络充分发挥能力。

另一方面是节点信息的提炼形式,简略的办法就是间接对相邻节点做 1\times11×1 卷积,再进行 max pooling。目前更风行的办法是基于 attention,一般 attention,如图 4 所示,输出特色个别由核心节点特色 t_iti​和相邻节点 t_jtj​,以及彼此的间隔等信息拼接而成,思考四周 32 个节点,则生成 32 个特色,并在此基础上计算权重向量 \alpha_iαi​,失去这 32 个特征向量的权重,再进行加权和,失去节点 ii 的新特色表白 t ’_iti′​。基于 self-attention 的办法工作机制相似。

Figure 4. 图节点信息的提炼过程

总结

最初,图卷积和卷积之间的一些比照整顿在图 5 中。咱们能够察看到一些乏味的景象,其实在卷积网络中,也有邻近节点搜寻形式的一些工作,例如空洞卷积和可变形卷积。

Figure 5. 图网络和卷积网络工作形式比拟

参考文献:

[1] Wu, Zonghan, et al.“A comprehensive survey on graph neural networks.”IEEE transactions on neural networks and learning systems (2020).

[2] Long, Jonathan, Evan Shelhamer, and Trevor Darrell.“Fully convolutional networks for semantic segmentation.”Proceedings of the IEEE conference on computer vision and pattern recognition. 2015.

点击关注,第一工夫理解华为云陈腐技术~

正文完
 0