目录
- 前言
- Abstract
- 1 Introduction
- 2 Related Works
-
- 2.1 Plain Network Embedding
- 2.2 Attributed Network Embedding
- 3 Deep Attributed Network Embedding
-
- 3.1 Problem Definition
- 3.2 Deep Attributed Network Embedding
- 3.3 Most Negative Sampling Strategy
- 4 Experiments
- 读后总结
- 结语
前言
Hello! 非常感谢您阅读海轰文章。如果文章中有错误,请指出~ 自我介绍 昵称:海轰 标签:程序猿|C 选手|学生 简介:由于C语言知识编程,然后转到计算机专业,获得国家奖学金,有幸获得一些国家奖、省级奖…已保研。 学习经验:扎实基础 多做笔记 多敲代码 多思考 学好英语! 只有努力,只有努力,只有努力,只有努力,只有努力,只有努力,只有努力,只有努力,只有努力?
知其然 知其所以然!
本文仅记录您感兴趣的内容
Abstract
近年来,网络嵌入引起了越来越多的关注
学习网络中节点的低维表示,有利于节点分类、链路预测等后续任务
大多数现有的方法
然而,在许多实际应用程序中,
因此,学习基于拓扑结构和节点属性的节点是非常重要和必要的
本文
- 提出了一种新的深度属性网络嵌入方法
- 提出了确保学习节点表示的新策略
1 Introduction
网络在现实世界中无处不在,如社交网络、学术引文网络和交流网络
在各种网络中,近年来备受关注
不同于普通网络只有拓扑结构,
这些信息属性有助于网络分析
-
例如,在学术引文网络中,不同文章之间的引文构成了一个网络,每个节点都是一篇文章 在这个网络中,每个节点都有大量关于文章主题的文本信息。
-
另一个例子是社交网络,用户联系他人,并将他们的个人信息作为属性
此外,社会科学也表明
因此,研究带属性网络是非常必要和重要的。
网络嵌入作为分析网络的基本工具,近年来引起了数据挖掘和机器学习的广泛关注。
学习网络中每个节点的低维表示,同时保持其相邻性。
然后,节点分类、链路预测、网络可视化等下游任务可以受益于学习的低维表示
近年来,提出了各种网络嵌入方法,如DeepWalk
然而,现有的方法大多集中在普通网络上,忽略了节点的有用属性
例如,在Facebook或Twitter在这样的社交网络中,每个用户都与他人连接,形成一个网络。
在学习节点表示时,大多数现有的方法只关注连接。但每个节点的属性也可以提供有用的信息
用户个人资料就是一个很好的例子
年轻用户可能更像另一个年轻人,而不是老用户。
因此,在表达学习节点时,
此外,网络的拓扑结构和属性是的
因此,为了找到底层模式,获得高度非线性的属性是非常重要的。这样,学习到的节点可以更好地保持接近性
然而,大多数现有的方法,如[Huang et al., 2017a;Yang等人,2015]只采用浅层模型,无法捕捉到高度非线性的特性
另外,由于拓扑结构和属性复杂,很难捕捉到这种高度非线性的特性
因此,对于属性网络嵌入,
为了解决上述问题,我们提出了一个问题(DANE)方法
详细地:
- 为了捕捉底层拓扑结构和属性的高非线性,提出了一个深度模型。同时,该模型可以强化学习节点,
- 此外,为了从网络的拓扑结构和属性中学习一致性和互补性,我们提出了将这两种信息结合起来的新策略
- 此外,为了获得鲁棒的节点表示,提出了有效的最负采样策略,使损失函数具有鲁棒性
2 Related Works
2.1 Plain Network Embedding
网络嵌入可以追溯到图形嵌入问题。有代表性的方法
- Laplacian eigenmap
- Locality Preserving Projection (LPP)
这些方法是,广泛应用于传统的机器学习应用。
但是,所有这些方法,由于它们都涉及耗时的特征分解操作,其时间复杂性为 O ( n 3 ) O(n^3) O(n3),其中 n n n/span>为节点数
近年来,随着大规模网络的发展,各种各样的网络嵌入方法被提出
例如:
- DeepWalk通过观察随机漫步中的节点分布与自然语言中的单词分布相似,采用随机漫步和Skip-Gram来学习节点表示
- LINE提出在学习节点表示时保持一阶和二阶邻近性
- GraRep被提出以保持更高阶的接近性
- Node2Vec通过在柔性节点的邻域上设计有偏随机游走提出
但是,所有这些方法都
2.2 Attributed Network Embedding
对于有属性的网络,已经提出了各种各样的模型
例如
- [Yang et al., 2015]提出了一种归纳矩阵分解方法,将网络的拓扑结构和属性结合起来。但是,它本质上是一个线性模型,这对于复杂的属性网络是不够的
- [Huang等人,2017a;2017b]采用图拉普拉斯技术从拓扑结构和属性学习关节嵌入。
- [Kipf和Welling, 2016a]提出了一种用于属性网络的图卷积神经网络模型。但该模型是半监督的方法,无法处理无监督的情况。
- [Pan等人,2016]提出将DeepWalk与神经网络相结合来进行网络表示。尽管如此,DeepWalk仍然是一个肤浅的模型。
- 最近,两种无监督的深度属性网络嵌入方法[Kipf和Welling, 2016b;Hamilton et al., 2017]。但是,它们只能
因此,有必要探索一种更有效的
3 Deep Attributed Network Embedding
3.1 Problem Definition
G = { E , Z } G = \{E, Z\} G={ E,Z},一个属性网络,含有 n n n个节点
- E = [ E i j ] ∈ R n × n E = [E_ij] \in R^{n \times n} E=[Eij]∈Rn×n,邻接矩阵
- Z = [ Z i j ] ∈ R n × m Z= [Z_{ij}] \in R^{n \times m} Z=[Zij]∈Rn×m,属性矩阵
给定一个网络 G = { E , Z } G=\{E,Z\} G={ E,Z}
- 两个节点 i i i和 j j j的一阶邻近度由 E i j E_{ij} Eij确定
- 具体地说,较大的 E i j E_{ij} Eij表示第 i i i个节点和第 j j j个节点之间的距离越近
一阶邻近度表示如果两个节点之间存在链接,则它们是相似的。除此之外,它们是不同的。因此,它可以被视为局部接近
给定一个网络 G = { E , Z } G=\{E,Z\} G={ E,Z}
- 两个结点 i i i和 j j j的高阶邻近度由 M i ⋅ M_{i·} Mi⋅和 M j ⋅ M_{j·} Mj⋅的相似性决定
- 其中 M = E ^ + E ^ 2 + ⋅ ⋅ ⋅ + E ^ t M=\hat E+\hat E^2+···+\hat E^t M=E^+E^2+⋅⋅⋅+E^t是高阶邻接矩阵
- E ^ \hat E E^是邻接矩阵 E E E的逐行归一化得到的一步概率转移矩阵
高阶邻近度实际上表明了邻域的相似性。
具体地说,如果两个节点共享相似的邻居,则它们是相似的。除此之外,它们并不相似。
在这里,高阶接近可以被视为全局接近
给定一个网络 G = { E , Z } G=\{E,Z\} G={ E,Z}
- 两个节点 i i i和 j j j的语义贴近度由 Z i ⋅ Z_{i·} Zi⋅和 Z j ⋅ Z_{j·} Zj⋅的相似度决定
语义接近表示。除此之外,它们是不同的
属性网络嵌入是基于邻接矩阵 E E E和属性矩阵 Z Z Z学习每个节点的低维表示,使得学习的表示
形式上,我们的目标是学习一个映射 f : { E , Z } → H f:\{E,Z\}→H f:{ E,Z}→H,其中 H ∈ R n × d H\in R^{n×d} H∈Rn×d是节点表示
使得 H H H能够保持一阶邻近、高阶邻近和语义邻近
然后,可以在学习到的 H H H上执行下游任务,例如节点分类、链路预测
3.2 Deep Attributed Network Embedding
从本质上讲,属性网络嵌入面临三大挑战才能获得良好的嵌入效果。它们是:
- :拓扑结构和属性的底层结构是高度非线性的,因此很难捕捉到这种非线性
- :属性网络中的邻近度既取决于网络的拓扑结构,也取决于网络的属性,因此如何发现和保持邻近度是一个棘手的问题。
- :这两种信息为每个节点提供不同的视图,因此重要的是使学习的节点表示在这两种模式下保持一致和互补的信息。
为了解决这三个问题,我们提出了一种新的深度属性网络嵌入方法(DANE)。该体系结构如图1所示
总体而言,有两个分支:
- 第一个分支由一个多层非线性函数组成,该函数可以捕捉高度非线性的网络结构,将输入 M M M映射到低维空间
- 第二个分支是将输入 Z Z Z映射到低维空间,以捕捉属性中的高度非线性。
自动编码器是一种功能强大的无监督深度特征学习模型。
它已被广泛用于各种机器学习应用[酱等人,2016]。基本自动编码器包含三个层
- 输入层
- 隐藏层
- 输出层
其定义如下
人们可以通过最小化重建误差来学习模型参数:
为了捕捉拓扑结构和属性中的高度非线性,图1中的两个分支在编码器中使用了 K K K层,如下所示:
相应地,在解码器中将有 K K K个层。
对于我们的方法
- 第一个分支的输入是高阶邻近矩阵 M M M,以捕捉拓扑结构中的非线性。
- 第二个分支的输入是属性矩阵 Z Z Z,以捕捉属性中的非线性
这里,我们将
为了保持语义接近,我们最小化了编码器的输入 Z Z Z和解码器的输出 Z ^ \hat Z Z^之间的重构损失:
具体地说,重建损失可以迫使神经网络平滑地捕获数据流形,从而可以保持样本之间的邻近性[Wang等人,2016] 因此,通过最小化重构损失,我们的方法可以
同样,为了保持高阶邻近,我们还将重构损失最小化,如下所示:
具体地说,高阶邻近度 M M M表示邻域结构。
如果两个节点具有相似的邻域结构,这意味着 M i ⋅ M_{i·} Mi⋅和 M j ⋅ M_{j·} Mj⋅相似,则通过
如前所述,我们
回想一下定义1,如果两个节点之间存在边,则它们相似。
因此,为了保持这种接近,我们最大限度地进行以下似然估计:
其中, p i j p_{ij} pij是第 i i i个节点和第 j j j个节点之间的联合概率
需要注意的是,我们应该,这样才能得到这两种信息之间的一致结果。
对于拓扑结构,联合概率定义如下:
同样,基于属性的联合概率定义如下:
因此,:
由于拓扑结构和属性是同一网络的双峰信息,因此我们应该
另一方面,这两种信息
因此,学习的陈述也应该是互补的
总而言之,如何学习一致和互补的低维表示是非常重要的
一种直接而简单的方法是将这两个表示 H M H^M HM和 H Z H^Z HZ直接连接起来作为嵌入结果
虽然这种方法可以保持两个模式之间的互补信息,但不能保证这两个模式之间的一致性。
另一种广泛使用的方法是强制图1中的两个分支,即 H M = H Z H^M=H^Z HM=HZ
虽然这种方法可以保证两个模式之间的一致性,但由于两个模式的最高编码层完全相同,因此会丢失来自两个模式的互补信息。
因此,如何将拓扑结构和属性结合起来进行属性网络嵌入是一个具有挑战性的问题。
为了解决这个具有挑战性的问题,我们建议最大限度地进行以下似然估计:
其中, p i j p_{ij} pij是两个模态之间的联合分布,其定义如下:
此外, s i j ∈ { 0 , 1 } s_{ij}\in\{0,1\} sij∈{ 0,1}表示 H i ⋅ m H^m_{i·} Hi⋅m和 H j ⋅ z H^z_{j·} Hj⋅z是否来自同一节点
具体地,如果 i = j , 则 s i j = 1 i=j,则s_{ij}=1 i=j,则sij=1。否则, s i j = 0 s_{ij}=0 sij=0。
此外,Eq.(10)相当于将负对数概率最小化,如下所示:
通过最小化等式(12)
- 当 H i ⋅ N H^N_{i·} Hi⋅N和 H j ⋅ Z H^Z_{j·} Hj⋅ 标签: 1832zj连接器