图神经网络【1】学习笔记

学习GCN不错的英文参考资料,原链接
图神经网络【1】学习笔记

Overview

许多现实世界的重要数据集都以图形或网络的形式出现:社交网络、知识图、蛋白质交互网络、万维网等等。然而,直到最近,很少有人关注神经网络模型泛化到这样的结构化数据集。
在过去的几年里,一些论文重新探讨了将神经网络推广到任意结构图上的问题(Bruna et al., ICLR 2014; Henaff et al., 2015; Duvenaud et al., NIPS 2015; Li et al., ICLR 2016; Defferrard et al., NIPS 2016; Kipf & Welling, ICLR 2017),他们中的一些人现在在一些领域取得了非常有希望的结果,这些领域以前是由基于内核的方法、基于图形的正则化技术等主导的。
在这篇文章中,我将简要概述这一领域的最新发展,并指出各种方法的优缺点。这里的讨论主要集中在最近的两篇论文:

  • Kipf & Welling (ICLR 2017), Semi-Supervised Classification with Graph Convolutional Networks (disclaimer: I’m the first author)
  • Defferrard et al. (NIPS 2016), Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering

Outline

  • 简要介绍图上的神经网络模型
  • 谱图卷积和图卷积网络(GCNs)
  • Demo:图形嵌入内部嵌入简单的一阶GCN模型
  • GCNs作为weisfeler - lehman算法的可微泛化
    如果你已经熟悉GCNs和相关的方法,你可能想要直接跳到嵌入空手道俱乐部网络9 Embedding the karate club network).

GCN有什么作用

最近的文献

推广一个类似RNNs或CNNs这样的成熟的神经网络模型来处理任意结构的图是一个具有挑战性的问题。最近的一些论文介绍了具体问题的专用体系结构(e.g. Duvenaud et al., NIPS 2015; Li et al., ICLR 2016; Jain et al., CVPR 2016), 其他人利用谱图理论中已知的图卷积(Bruna et al., ICLR 2014; Henaff et al., 2015) 定义多层神经网络模型中使用的参数化过滤器,类似于我们熟悉经典的CNNs.
最近的工作重点是弥补快速启发法和缓慢但更有原则的谱方法之间的差距。Defferrard等人(NIPS 2016)使用Chebyshev多项式在光谱域近似平滑滤波器,使用在类神经网络模型中学习的*参数。他们在常规领域(如MNIST)取得了令人信服的结果,接近于简单的2D-CNN模型。

GCN Part Ⅰ: 定义

目前,大多数图神经网络模型都有一个通用的体系结构。我将把这些模型称为Graph Convolutional Networks (GCNs);卷积,因为过滤器参数通常在图中的所有位置共享(或其子集,如Duvenaud et al.,NIPS 2015)。

对于这些模型,目标是图G=(V,E)G=(V,E)上学习信号/特征在的函数,该函数作为输入:

  • xix_i是对于每一个节点 ii的特征的描述, N×DN×D的特征矩阵XX(NN:点的数量;DD:输入特征的数量)
  • 矩阵形式的图结构的典型描述;通常以邻接矩阵AA(或其某个函数)的形式出现

并产生节点水平的输出ZZ (N×FN×F特征矩阵,其中FF为每个节点的输出特征数)。图水平的输出可以通过引入某种形式的池化pooling操作来建模(参见Duvenaud et al,NIPS 2015).

每个神经网络的layer可以写成一个非线性函数              
             
H(l+1)=f(H(l),A)H^{(l+1)} =f(H^{(l)},A)
H(0)=XH^{(0)}=XH(L)=ZH^{(L)}=Z (zz图水平的输出)、LL表示layers的数量。具体的模型根据不同的f(,)f(·,·)选择和参数化。

GCNs Part Ⅱ:简单的例子

举一个例子,考虑非常简单的分层传播规则:

f(Hl,A)=σ(AH(l)W(l))f(H^{l}, A)= σ(AH^{(l)}W^{(l)})

W(l)W^{(l)}表示第ll个layer的权重矩阵,σ()σ(·)是非线性**函数比如ReLu。尽管这个模型很简单,但它已经非常强大了(我们稍后将讨论这个问题)。
但首先,尝试解决这个简单模型的两个局限性:与A相乘意味着,对于每个节点,我们对所有相邻节点的所有特征向量求和,但不包括节点本身(除非图中存在自循环)。我们可以通过在图中执行自循环来“修复”这个问题:我们只需将单位矩阵添加到AA
第二个主要的局限性是AA通常是没有经过标准化处理,因此与AA的乘法会完全改变特征向量的比例(我们可以通过观察AA的特征值来理解)。标准化处理AA,所有的r行(rows)和为1,例如D1AD^{-1}ADD是一个对角节点矩阵(diagonal node degree matrix),这样就解决的这个问题。与D1AD^{-1}A相乘相当于对相邻节点的特征进行平均。实际上,当我们使用对称标准化时,动态会变得更有趣,例如. D12AD12D^{- \frac{1}{2}}AD^{- \frac{1}{2}},因为这不再是相邻节点的平均值。结合这两个技巧,我们基本上得出了在Kipf & Welling中引入的传播规则(ICLR 2017):
                          
f(H(l),A)=σ(D^12A^D^12H(l)W(l))f(H^{(l)},A) = σ(\hat{D}^{-\frac{1}{2}}\hat{A}\hat{D}^{-\frac{1}{2}}H^{(l)}W{(l)}),
A^=A+I\hat{A}=A+I的时候,II表示单位矩阵,D^\hat{D}A^\hat{A}的对角节点度矩阵

在下一节中,我们将进一步了解这种模型是如何在一个非常简单的示例图上运行的:Zachary’s karate club network (点击查看 Wikipedia的文章)

GCN Part Ⅲ:Embedding the karate club network(嵌入的空手道俱乐部)

图神经网络【1】学习笔记
空手道俱乐部图,颜色表示通过基于模块聚类得到的社区 (Brandes et al., 2008).

让我们来看看我们的简单GCN模型(参见前一节或Kipf & Welling, ICLR 2017)是如何在一个著名的图形数据集Zachary的空手道俱乐部网络上工作的(参见上图)。

我们构造一个3层的GCN,并随机初始化权值。现在,在训练权值之前,我们只需将图的邻接矩阵X=IX=I(即II为单位矩阵,因为我们没有任何节点特征)插入到模型中。3层的GCN现在在前向传播中执行三个传播步骤,并有效地对每个节点的3阶邻域进行卷积(所有节点到3“跳”远)。值得注意的是,该模型生成了这些节点的嵌入,它们非常类似于图中的社区结构(参见下图)。请记住,我们已经完全随机初始化了权值,并且还没有执行任何训练更新(到目前为止)!

图神经网络【1】学习笔记
GCN embedding (with random weights) for nodes in the karate club network.

这似乎有些令人惊讶。最近一篇关于DeepWalk模型的论文(Perozzi et al., KDD 2014)表明,他们可以在复杂的无监督训练过程中学习类似的嵌入。如何能够可能得到这样的嵌入或多或少“免费”使用我们简单的未经训练的GCN模型?

通过将GCN模型解释为众所周知的图上的Weisfeler - Lehman算法的广义可微版本,我们可以对此有所了解。1维Weisfeiler-Lehman算法流程如下:
对于所有的节点viGv_i∈G

  • 获得邻接节点的vj{v_j}的特征集合hvj{}h_{v_j}
  • 更新节点的特征 hvihash(Σjhvj)h_{v_i}←hash(Σ_jh_{v_j})hash()hash(·)为u单映射哈希函数
    重复kk步直到收敛

原算法表示如下

图神经网络【1】学习笔记

实际上,Weisfeler - Lehman算法为大多数图分配了一组独特的特征。这意味着每个节点都被分配了一个唯一描述其在图中的角色的特性。**例外情况是高度规则的图形,如网格、链等。**对于大多数不规则图,这种特征分配可以用来检查图的同构性(即两个图是否相同,直到节点的排列)。

回到我们的Graph Convolutional layer-wise传递规则的向量形式:

hvi(l+1)=σ(j1cijhvj(l)W(l))h^{(l+1)}_{v_i}=σ(∑_j \frac{1}{c_{ij}}h^{(l)}_{v_j}W^{(l)}),
jj是节点viv_i的相邻节点的索引,cijc_{ij}是边(vi,vj)(v_i,v_j)的normalization constant,通过使用我们GCN模型中的对称标准化邻接矩阵D12AD12D^{- \frac{1}{2}}AD^{- \frac{1}{2}}。这个传播规则可以解释为在Weisfeler - Lehman算法中使用的哈希函数的可微分和参数化变体(W(l)W^{(l)})。如果选择适当的非线性并初始化随机权重矩阵,使其正交(e.g,初始化使用来自Glorot & Bengio, AISTATS 2010),这个更新规则在实际中就会变得稳定(由于cijc_{ij}的标准化)。经过观察,得到了meaningful smooth embeddings,我们可以将距离解释为局部图结构的(去)相似性!

GCNs Part Ⅳ:半监督学习

由于我们的模型中的所有东西都是可微的和参数化的,我们可以添加一些标签,训练模型并观察嵌入的反应。我们可以使用Kipf & Welling (ICLR 2017)中提到的GCNs半监督学习算法。我们简单地为每个类/社区标记一个节点(在下面的视频中突出显示的节点),并开始进行多个iterations训练
图神经网络【1】学习笔记
GCNs的半监督分类:潜在的动态空间进行300个训练迭代,每个类一个标签。标记的节点已经突出显示。
注意到,模型直接产生了一个潜在的二维空间,通过可视化。可以发现3层的GCN模型能够线性地分离社团,每个类只给出一个标记的示例。考虑到模型没有收到节点的特性描述的原因,这是以一个显著的结果。同时,可以提供初始节点特征,正是 (Kipf & Welling, ICLR 2017)中描述的实验中所做的,以实现对多个图数据集的最新分类结果。