【论文笔记】struc2vec: Learning Node Representations from Structural Identity【2】

261 阅读7分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第9天,点击查看活动详情

前言

Hello!

非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~  

自我介绍 ଘ(੭ˊᵕˋ)੭

昵称:海轰

标签:程序猿|C++选手|学生

简介:因C语言结识编程,随后转入计算机专业,获得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖...已保研。

学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!  

唯有努力💪  

知其然 知其所以然!

本文只记录感兴趣的部分

3. STRUC2VEC

对于捕获网络中节点的结构身份的学习表示,一个有效的方法应具备:

  • 节点的潜在表征( latent representation)之间的距离应该与节点的结构相似性密切相关。
    • 具有相同局域网结构的两个节点应该具有相同的潜在表示
    • 而具有不同结构身份的节点 应该相距很远(这里的距离是指节点latent representation之间的距离)
  • 潜在表示不应该依赖于任何节点或边缘属性,包括节点标签
    • 因此,在结构上相似的节点应该有紧密的潜在表示,独立于节点和边缘的属性。
    • 节点的结构身份必须独立于其在网络中的“位置”

struct2vec框架的四个步骤:

  1. 对于不同的邻域大小,确定图中每个顶点对之间的结构相似性

    在度量节点之间的结构相似度时引入了层次,提供了更多的信息来评估层次的每一层的结构相似度

  2. 构造一个加权多层图

    网络中的所有节点都存在于每一层,每一层对应于层次的一个层次,用于度量结构相似性

    每层内每个节点对之间的边权值与它们的结构相似度成反比

  3. 使用多层图为每个节点生成上下文

    在多层图上使用有偏随机游走,用来生成节点序列

    结构上更相似的节点更大概率会在这些序列中

  4. 应用一种技术,从节点序列给出的上下文学习潜在表示,例如SkipGram

    和deepwalk一样,利用这些序列进行学习


struct2vec is quite flexible as it does not mandates any particular structural similarity measure or representational learning framework.

struct2vec是相当灵活的,因为它不要求任何特定的结构相似性测量或表征学习框架

3.1 Measuring structural similarity

struct2vec的第一步是在不使用任何节点或边的情况下确定两个节点之间的结构相似性

此外,这种相似性度量应该是分层的,并应对不断增加的邻域大小,捕捉更多的结构相似性概念。

直观地说,具有相同度的两个节点在结构上是相似的,但是如果它们的相邻节点也具有相同的度,那么它们在结构上更加相似


kk^{*}: 图GG的直径

图的直径是指任意两个顶点间距离的最大值.(距离是两个点之间的所有路的长度的最小值

Rk(u)R_k(u): 顶点u经过k跳到达的图中顶点的集合

R1(u)R_1(u)表示节点u的邻域(与节点u相邻的节点的集合)

s(S)s(S): 节点集合的有序度序列(按照节点的度进行排列)

S是一个节点集合,含有多个集合,s(S)就是对S中的结点再按照度大小进行排序


通过比较s(Rk(u))s(R_k(u))s(Rk(v))s(R_k(v)),我们可以建立一个层次来衡量结构相似性。

一共有k层,第一层比较s(R1(u))s(R_1(u))s(R1(v))s(R_1(v)),第二层比较s(R2(u))s(R_2(u))s(R2(v))s(R_2(v))....


fk(u,v)f_k(u,v): 顶点u和顶点v之间的结构距离(第k层中)

在这里插入图片描述

  • D1,D2D_1,D_2:有序度序列,就是s(S)s(S)
  • g(D1,D2)g(D_1, D_2): 表示有序度序列D1D_1D2D_2之间的距离,g(D1,D2)0g(D_1, D_2) \geq 0f1=0f_{-1}=0
  • fk(u,v)f_k(u,v)递增,且只有当节点u和v之间都存在k跳时 fk(u,v)f_k(u,v)才有意义
  • 如果节点u和v的 k跳邻域同构,则可以将u映射为v,令fk1(u,v)=0f_{k-1}(u, v) = 0

确定比较两个度序列s(S)s(S)的函数g(s1,s2)g( s_1, s_2 ) ==> 采用动态时间规整(Dynamic Time Warping, DTW)来测量两个有序度序列之间的距离

假设有两个有序度序列A,BA, B

DTW将元素a与b进行匹配(aA,bB)(a∈A, b∈B),使匹配元素之间的距离之和最小

图中两个顶点之间的距离怎么定义呢?(这里的距离是指匹配DTW算法中的距离)

定义顶点a,b之间的距离为

d(a,b)=max(a,b)min(a,b)1d(a, b) = \frac{max(a,b)}{min(a, b)} - 1

  • a=ba =b时,d(a,b)=0d(a, b) = 0 ==> 两个相同的有序度序列的距离为零

3.2 Constructing the context graph

我们需要构造一个多层加权图来编码节点之间的结构相似性

  • GG: 原始图
  • MM: 多层加权图(无向),层数为kk
    • k=0,1,...kk =0, 1,... k^{*}
    • kk^{*}是图的直径

每一层有nn=Vn(n= |V|)个节点,Cn2C_n^2条边

第k层中,两个节点之间的边权重定义为

wk(u,v)=efk(u,v),k=0,1,...kw_k(u, v) = e^{-f_k(u,v)}, k =0, 1,... k^{*}

  • 上式仅当fk(u,v)f_k(u,v)存在才有意义
  • 顶点u,v之间结构距离越大,说明这两个节点越不相似,在该层(多层加权图中)这两个节点之间的边的权重则越小(权重小,说明这两个节点相似度越低)
  • 0<wk(u,v)10 < w_k(u, v) \leq 1 : fk(u,v)0f_k(u, v) \ge 0,当 fk(u,v)=0f_k(u, v) = 0时,wk(u,v)=1w_k(u, v) = 1

MM中每一层之间通过边进行相连接,连接方式为:每个顶点都连接到其对应的上下层的顶点

  • 注意这里是有向边
  • 第k层的节点u与第k-1、第k+1层中的节点u相连接

第k层的节点u与第k+1层中的节点u连接的边的权重为

w(uk,uk+1)=log(Γk(u)+e),k=0,...,k1w(u_k, u_{k+1})=log(\Gamma_k(u) + e), k = 0,...,k^{*}-1

其中Γk(u)\Gamma_k(u)定义为

Γk(u)=vV1(wk(u,v)>wk)\Gamma_k(u) = \sum_{v\in V} 1(w_k(u,v) > \overline {w_k})

wk=(u,v)Cn2wk(u,v)Cn2\overline{w_k}=\frac{\sum_{(u,v)\in C_n^2}w_k(u,v)}{C_n^2},表示第k层中所有边权重的平均值

Γk(u)\Gamma_k(u)可以理解为:第k层图中与顶点相连接边的权重大于该层平均边权重边数量,用于衡量节点uu与第k层其它节点的相似度

这里用Cn2C_n^2表示文中的(2n)(_2^n)

第k层的节点u与第k+1层中的节点u连接的边的权重为

w(uk,uk1)=1,k=1,...,kw(u_k, u_{k-1})=1, k = 1, ..., k^{*}


注意

  • 如果节点u在当前层有很多相似节点,则需要通过移动至上一层或下一层去获得更好的随机游走序列(上下文)
  • 通过向上游走一层,类似节点的数量只会减少

多层图MM

  • 节点数:nknk^{*} (一层节点数量为nn,一共kk^{*}层)
  • 最大边数量:kCn2+2n(k1)k^{*} C_n^2 +2n(k^{*} -1)
    • 单看每一层中有Cn2C_n^2条边,一共kk^{*}层,共有边kCn2k^{*} C_n^2
    • 再看层之间的变,共有kk^{*}层,则层与层之间有k1k^{*} -1个间歇需要通过边连接,有n(k1)n * (k^{*}-1)条边,又为有向边,则需要乘以2,得到:2n(k1)2n(k^{*} -1)

3.3 Generating context for nodes

多层图MM的作用就是为节点u生成结构上下文

  • 依据图MM中边权重的不同进行有偏随机游走( a biased random walk)

随机游走选择下一个节点前,首先决定是要改变层(上一层或下一层)还是在当前层上游走

假设随机游走停留在当前层的概率为qq>0q,q>0,改变层的概率为1q1-q

1)当选择停留在当前层时:从节点u游走到节点v的概率为

pk(u,v)=efk(u,v)Zk(u)=wk(u,v)Zk(u,v)p_k(u,v)=\frac{e^{-f_k(u,v)}}{Z_k(u)}=\frac{w_k(u,v)}{Z_k(u,v)}

其中

Zk(u)=vV,vuefk(u,v)=vV,vuwk(u,v)Z_k(u)=\sum_{v\in V, v\neq u}e^{-f_k(u,v)}=\sum_{v\in V, v\neq u}{w_k(u,v)}

可以理解为:

  • 从u走到v的概率就是节点u与节点v之间的边权重(第k层图MM中)占节点u所有边权重的占比

通过随机游走,倾向于走到与当前顶点结构更相似的节点

2)当选择需要改变层时(概率为1q1-q),需要选择是向上一层移动还是向下一层移动

向上一层移动的概率

pk(uk,uk+1)=w(uk,uk+1)w(uk,uk+1)+w(uk,uk1)p_k(u_k, u_{k+1})=\frac{w(u_k, u_{k+1})}{w(u_k,u_{k+1})+w(u_k,u_{k-1})}

理解:

  • 对于节点u,往上一层的概率为:向上边的权重 / (向上边的权重 + 向下边的权重)

向下一层移动的概率

pk(uk,uk1)=1pk(uk,uk+1)p_k(u_k,u_{k-1})=1-p_k(u_k, u_{k+1})

往下一层的概率 = 1 - 往上一层的概率


游走方式

  • 对于每个节点uVu∈V,在其对应的0层顶点(图MM中)开始随机游走
  • 随机游走具有固定的且相对较短的长度,并且该过程会重复一定的次数,从而产生多个独立的遍历(即节点u的多个上下文)

结语

文章仅作为个人学习笔记记录,记录从0到1的一个过程

希望对您有一点点帮助,如有错误欢迎小伙伴指正

在这里插入图片描述