归纳式的属性图异常检测(ijcai20)

584 阅读3分钟

小知识,大挑战!本文正在参与“   程序员必备小知识   ”创作活动

本文同时参与 「掘力星计划」   ,赢取创作大礼包,挑战创作激励金 研究图上的异常检测~

表示学习入门萌新~

跪求指点交流~

通过整理发现深度学习的异常检测论文很少的,新鲜出炉的20年的异常检测论文!

Inductive Anomaly Detection on Attributed Networks Kaize

1.要解决的问题

大多数现有的算法无法自然的泛化到没有见过的节点上,必须重新从0开始训练整个模型来处理新加入的节点。这篇提出了**AEGIS (adversarial graph differentiation networks).**设计了一个图神经网络来学习异常感知的节点表示,然后用一个对抗生成对抗学习来检测新加入的节点。

2.介绍部分

1.说明现在的异常分成演绎式和归纳式的。然后现在的归纳式的异常检测很少。

2.说明现在的图神经网络在处理归纳式很多研究...(graphsage?)

但是直接把这些用到异常检测上还有很多挑战。

1) The existing graph neural networks are ineffective to characterize the node abnormality since they are not tailored for anomaly detection problems。

2)Unseen anomalies that emerged in the newly added data could incur the infeasibility of previously learned detection models.

3.Proposed Approach

3.1 Graph Differentiative Layer

能够从任意阶的邻居上学习到异常感知的节点表示。

Node-level Attention:

同质性意味着具有相似模式的节点更加容易被连接在一起,同质性也被当作检测异常的重要方式。本文采用注意力机制来捕捉节点和邻居的特征差异,让节点和邻居的差异。

这个东西的权重计算如2所示。这个时候,我翻出来了之前的GAT文章。

所以有趣的地方是,本文的异常检测是在残差的基础上计算重要性成都的,也就是2式的系数的计算。在计算2的时候,还用到了a,这个是模型自己学习到的重要性程度。

Neighborhood-level Attention

最后GDN的架构:可以考虑多跳的邻居。很符合直觉,异常不仅和邻居有关,和多跳邻居也有关。

因此,每个节点的最终表示向量变成了:3式子。3式也考虑了重要性程度。

4.2 Adversarial Graph Differentiation Networks

通过上述实际上可以用GDN构成一个自编码器做异常检测,但是inductive的情况下,新加入的节点的新的异常模型表现很差。因此,采用了gan的思想。

为什么加了个gan效果就很好?

通过生成器成功的异常,可以让判别器难以识别出 是来自已有的图还是来自人工生成的。

换句话说,我通过判别器去 学习一个边界,可以区分异常点(图本身的异常和生成的异常)和正常点。 也就是说想生成一些异常点,让这些异常点 当作 以后可能的异常,这样判别器就可以识别出 更多种类的异常!

4 实验

实验部分使用了dominant的数据集。做了inductive和transductive实验。GDN-AE在transductive 上已经表现很好了。