资讯详情

论文阅读_GCN卷积图神经网络实现半监督分类器

介绍

英文题目:Semi-Supervised Classification with Graph Convolutional Networks 中文标题:利用卷积图神经网络实现半监督分类器 论文地址:https://arxiv.org/abs/1609.02907 领域:自然语言处理、知识图谱、图神经网络 上传时间:2016 出处:ICLR 2017 被引量:10671 代码和数据:

  • https://github.com/tkipf/gcn
  • https://github.com/kaize0409/pygcn/

阅读时间:22-03-11

#自然语言处理 #知识图谱

泛读

  • 针对问题:图节点多分类,半监督学习
  • 结果:有效提高知识图和引文图数据集中的精度和效率
  • 核心方法:基于频谱图,卷积神经网络,编码时考虑图结构和节点的特点
  • 难点:几乎全是公式推导,先验知识太多,单看公式看不懂
  • 泛读后的理解:30% (阅读主题、摘要、结论、图表和标题)

精读

摘要

论文提出了的,使用方法。卷积结构的选择使我们在建模时更加关注相邻的节点。同时考虑了模型隐藏层的编码。与之前的模型相比,效果明显提高。

1. 介绍

论文主要解决图中节点的分类问题,只标记图中的一些节点,使用半监督学习方法,根据图的规则标记。拉普拉斯正则化项目用于损失函数: L = L 0 λ L r e g ( 1 ) L=L_0 \lambda L_{reg}\qquad (1) L=L0 λLreg(1) 其中: L r e g = ∑ i , j A i j ∣ ∣ f ( X i ) ? f ( X j ) ∣ ∣ 2 = f ( X ) T Δ f ( X ) L_{reg}=\sum_{i,j}A_{ij}||f(X_i)-f(X_j)||^2=f(X)^T\Delta f(X) Lreg = i,j∑​Aij​∣∣f(Xi​)−f(Xj​)∣∣2=f(X)TΔf(X) 其中L0是有标签部分的误差(分类的类别),λ是正则化项的权重Lreg通过所有数据(含有标签和无标签)计算得出;把神经网络编码作为函数f,X是节点的原始的特征矩阵。 Δ = D − A \Delta=D-A Δ=D−A,其中A是领域矩阵(其值可以是0/1值,也可以是权重),D是度矩阵,∆ 是拉普拉斯矩阵,有时也用符号L表示。

预备知识

邻接矩阵

定义权重Aij为点vi和点vj之间的权重,所有点间线的权重Aij组成邻接矩阵A,第i行第j值表示为Aij。

度矩阵

定义di是与i点相连所有点的权重之和: d i = ∑ j = 1 n A i j di = \sum_{j=1}^n A_{ij} di=j=1∑n​Aij​ 度矩阵D是一个对角矩阵(主对角线上有值): D = ( d 1 . . . . . . . . . d 2 . . . . . . . . . . . . . . . . . . d n ) D=\left(\begin{matrix} d1 & ... & ...\\ ... & d2 & ...\\ ... & ... & ... \\ ... & ... & dn\end{matrix} \right) D=⎝⎜⎜⎛​d1.........​...d2......​.........dn​⎠⎟⎟⎞​

拉普拉斯矩阵

L = D − A L=D-A L=D−A

拉普拉斯算子

拉普拉斯矩阵就是图结构上的拉普拉斯算子,或者说是离散的拉普拉斯算子。

拉普拉斯算子对应的运算是:二阶导数,即散度。它用于衡量一个节点变化之后,对其他相邻结点(也可以说是整个图)的干扰总收益(总变化):将所有相邻的点相加再减去该中心点x的相邻个数。 Δ f = ∑ ∂ f ∂ 2 x \Delta f= \sum \frac{\partial f}{\partial^2x} Δf=∑∂2x∂f​ 离散函数的一阶导(含义是:一个节点与它邻近节点的差异): ∂ f ∂ x = f ′ ( x ) = f ( x + 1 ) − f ( x ) \frac{\partial f}{\partial x}=f'(x)=f(x+1)-f(x) ∂x∂f​=f′(x)=f(x+1)−f(x) 离散函数的二阶导(一个节点与它前后两个点组成的关系,是平滑还是尖峰) ∂ f 2 ∂ x 2 = f ′ ′ ( x ) ≈ f ′ ( x + 1 ) − f ′ ( x ) = f ( x + 1 ) + f ( x − 1 ) − 2 f ( x ) \begin{aligned} \frac{\partial f^2}{\partial x^2}&=f''(x) \approx f'(x+1)-f'(x) \\ &=f(x+1)+f(x-1)-2f(x) \end{aligned} ∂x2∂f2​​=f′′(x)≈f′(x+1)−f′(x)=f(x+1)+f(x−1)−2f(x)​ 对于某一个点i, Δ f i = ∑ j ∈ N i ( f i − f j ) \Delta f_i=\sum_{j\in N_i}(f_i-f_j) Δfi​=j∈Ni​∑​(fi​−fj​) 如果边具有权重Aij,则有: Δ f i = ∑ j ∈ N i A i j ( f i − f j ) \Delta f_i=\sum_{j\in N_i}A_{ij}(f_i-f_j) Δfi​=j∈Ni​∑​Aij​(fi​−fj​) 当i,j无边相连时,Aij=0,所以Ni就可以变成N。 Δ f i = ∑ j ∈ N A i j ( f i − f j ) = ∑ j ∈ N A i j f i − ∑ j ∈ N A i j f j = d i f i − A i : f \begin{aligned} \Delta f_i & =\sum_{j\in N}A_{ij}(f_i-f_j) \\ & =\sum_{j\in N}A_{ij}f_i -\sum_{j\in N}A_{ij}f_j \\ & = d_if_i-A_{i:}f \end{aligned} Δfi​​=j∈N∑​Aij​(fi​−fj​)=j∈N∑​Aij​fi​−j∈N∑​Aij​fj​=di​fi​−Ai:​f​ 空间的二阶导: Δ f = ∑ ∂ f ∂ 2 x = ( A − D ) f = L f \Delta f= \sum \frac{\partial f}{\partial^2x}=(A-D)f=Lf Δf=∑∂2x∂f​=(A−D)f=Lf

正文

正则化项Lreg的目标是让有连接的点在编码后差异足够小,整个图更平滑。该公式一依赖假设:图中连通的节点共享相同标签,这限制了模型的表述能力,因为边不只用于编码节点的相似性。

使用,用节点特征X、邻接矩阵A和函数f编码:f(X,A),利用有标签和无标签数据共同训练模型,使模型能够学习到对所有节点均适用的规则。

  • 介绍了一种简单而有效的神经网络模型规则,它使用图谱卷积的一阶近似。
  • 示范了用半监督学习的,基于图的神经网络方法,解决图节点分类问题,模型的精度和效率方面相较于SOTA都有显著提升。

2. 图的快速近似卷积

对于图神经网络f(X,A),文中提出了多层图卷积网络(GCN),下图展示了基于层的递推,每个隐藏层计算如下: H ( l + 1 ) = σ ( D ~ − 1 2 A ~ D ~ − 1 2 H ( l ) W ( l ) ) ( 2 ) H^{(l+1)}=\sigma(\widetilde{D}^{-\frac{1}{2}}\widetilde{A}\widetilde{D}^{-\frac{1}{2}}H^{(l)}W^{(l)}) \qquad(2) H(l+1)=σ(D 标签: 016lf连接器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台