深度异常检测3

120 阅读3分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第3天,点击查看活动详情

Hello,非常感谢你的关注~ 我是机器学习与风控,一名末流985的本硕,无顶会、无大厂核心部门实习,拥有多个比赛的竞赛经历,秋招刷了leetcode500题,在秋招提前批中收获字节跳动,腾讯,阿里,美团等大厂offer,最终选择入职字节风控,从事与黑产对抗的工作。我会定期分享我的春招、秋招亲身求职体验;算法岗日常工作;数据挖掘比赛,经典图模型等日常学习等有料也有趣的内容~秋招到了,欢迎各位私信找我内推!

为了同时建模属性和结构信息,图神经网络的概念在[23] 中首次提出,图神

经网络在深度神经网络模型基础上进一步处理以图的形式表示的数据。图2.2显示

了图卷积网络架构[2],邻接矩阵以及特征通过卷积层汇聚和聚合的后更新节点表

示,然后将最后一层的向量用于图分析等任务。近年来,随着注意力机制在越来越

多的领域取得成功,图注意力网络[24–26] 也得到了广泛的关注。与图卷积网络平

等的看待节点邻居不同,图注意力网络通过计算邻居和中心节点的相似性从而得

到邻居相对于节点的重要性分数,最后通过加权的聚合函数获得中心节点的最终

表示。

基于图神经网络的表示学习方法能够有效的同时编码属性和结构信息,取得

了巨大的成功,但是图神经网络对表示学习过程和任务目标一起进行端到端的优

化,这些模型往往需要节点分类等下游有标签的监督信息指导模型训练,此外,下

游任务的监督信号促使模型学习到的表示只适用于当前任务,对于其它任务并不

那么有效。

最近两年来,为了学习到更加通用的节点表示,无监督的基于图神经网络的

表示学习技术获得了学者们的广泛关注。无监督技术通过学习数据内部特征作为

辅助信息来处理不同任务。其中,图自编码器[27, 28] 是一类经典的无监督学习框

架,它利用编码器将节点映射到隐层特征空间,解码器把隐向量进行重构图作为

优化目标从而无监督的提取出节点特征。

除此之外,基于互信息最大化的图表示学习技术也取得了显著进展[29–32]。

互信息衡量了两个变量间共享信息的多少,该类方法是通过最大化两个正例变量

间互信息的方式来不断拉近正例变量间的距离从而学习数据的表征。互信息表示

学习方法在图像等领域取得了显著成果[31, 32]。Deep Graph Infomax(DGI)[33]

首次将互信息用于图表示学习领域。DGI 通过最大化节点表示和全局表示的互信

息来学习节点向量。DGI 的模型结构如图2.3所示,其中X 和A 代表原始图的属性

矩阵和邻接矩阵,H 是经过编码器E 得到的原始图的特征矩阵,˜X 和˜ A 代表经过

扰动函数C 得到的负例图的节点属性和邻接矩阵, ˜ H 是经过编码器E 得到的负例

图的特征矩阵,˜s 是通过读出函数R 得到的全局表示,D 是用于互信息估计的判

别器