0.Abstract
这是一篇将当前图神经网络(GNN)解释方法进行归纳分类的综述文献。这篇论文的工作主要是为图神经网络(GNN)的可解释性提供了统一的处理方法,并为评估提供了标准化的测试平台。
1.Introduction
虽然深度学习方法在各个领域都有较好的表现,但是目前使用的绝大多数深度学习方法就像是一个黑盒子(black-boxes),无法对背后影响预测结果的因素进行分析,这对于一些涉及安全、隐私和公平性的领域是比较严重的问题,基于此,发展可解释技术去解释深度学习显得尤为重要。
目前需要一种对深度学习模型的解释,在图像与文字处理方面的研究上,使用了一些输入独立解释的方法,比如特征重要性分析,或者一些高阶的模型行为解释,比如对梯度和权重的学习,这些方法可以帮助我们分析输入和预测之间的关系。另外,在文献总结工作上,当前的综述论文更多针对的是图像与文字处理领域,这说明当前在图神经网络方面的解释性工作和文献总结上是较为欠缺的。
虽然,当前存在几种方法来解释 GNN 的预测,比如 XGNN、GNNExplainer、PGExplainer和SubgraphX等,但是仍然缺乏用于评估解释结果的标准数据集和度量,因此,本文认为提出了对GNN解释技术的方法和评估进行系统调查的必要性,下面是本文的主要贡献:
(1)对现有的 GNN 模型解释技术进行了系统和全面的回顾
(2)对现有的 GNN 模型解释技术进行了新的归纳与分类
(3)对每种现有的 GNN 模型解释技术进行了简单的介绍
(4)总结了 GNN 解释任务常用的数据集和评估指标
(5)通过将文本转换为图结构,从文本域构建了三个人类可理解的数据集。
(6)为 GNN 解释研究工作开发了一个开源库
(7)通过实验学习和对比现有 GNN 模型解释技术
Explainability vs Interpretability
本文对 Explainability 和 Interpretability 两个词进行了区分,如果模型本身能够对其预测提供人类可理解的解释,我们认为模型是 ”interpretable”,这样的模型在某种程度上不再是一个黑盒子,例如,决策树模型是一个 ”interpretable” 模型。同时,“explainable”模型意味着该模型仍然是一个黑盒子,其预测可能通过事后解释技术来理解。
2.The Challenges
(1)与图像和文本不同,图不具备规则的网格状数据,这意味着没有位置信息,每个节点有不同数量的邻居。虽然,图结构包含了重要的拓扑信息,并可以使用特征矩阵和邻接矩阵表示,但是邻接矩阵表示拓扑信息,仅包含离散值,所以现有的方法(用于图像或文字的解释方法)可能不适合获得 GNN 的高质量解释。此外,在图像领域,一些方法通过学习 soft masks 来捕获重要的图像区域,然而,将 soft masks 应用于邻接矩阵将破坏离散性,而且,由于图节点和边共同对GNN的最终预测做出贡献,它们之间的相互作用也很重要,所以无法直接将图像领域的方法引入图领域。
(2)在图像和文本处理领域,主要学习像素或单词的重要性,但是在图领域,更重要的是学习图数据的结构信息(学习单个节点可能没有什么意义、对于生物化学等研究图结构信息更重要),然而,图像领域现有方法不能提供关于结构的解释。另外,对于节点分类任务,每个节点的预测由来自其邻居的不同消息游走确定,图像领域的现有方法都不能考虑这种游走信息,这需要进一步探索。
(3)图数据不如图像数据和文本数据那么直观,为了理解深度模型,数据集的领域知识是必要的。然而,由于图可以表示复杂的数据,如分子、社交网络和引文网络,因此人类理解图的含义是一项挑战。此外,在化学和生物学等跨学科领域,还有许多未解之谜,领域知识仍然缺乏。
3.An Overview Of The Taxonomy
Instance-level Explanations
实例级方法为每个输入图提供依赖于输入的解释。给定输入图,这些方法通过识别用于预测的重要输入特征来解释深度模型。根据重要性得分的获得方式,可以将这些方法分为四个不同分支:
-
gradients/features-based methods
基于梯度/特征的方法使用梯度或特征值来指示不同输入特征的重要性。
-
perturbation-based methods
基于扰动的方法监测关于不同输入扰动的预测变化,以研究输入重要性分数。
-
decomposition methods
分解方法首先将预测分数(如预测概率)分解到最后一个隐藏层中的神经元。然后,他们一层一层地反向传播这些分数,直到输入空间,并使用这些分解的分数作为重要性分数。
-
surrogate methods
对于给定的输入示例,基于代理的方法首先从给定示例的邻居中采样数据集。接下来,这些方法将简单且可解释的模型(如决策树)应用于采样数据集。然后使用代理模型的解释来解释原始预测。
Model-level Explanations
模型级方法在不考虑任何特定的输入示例的情况下解释图神经网络,这种独立于输入的解释是高级的,可以解释一般行为。与实例级方法相比,这一方向的探索仍然较少。
4.Instanct-Level Explanations
Gradients/Features-Based Methods
- 思想:使用梯度或隐藏特征图值作为输入重要性的近似值。具体而言,基于梯度的方法通过反向传播计算目标预测相对于输入特征的梯度。基于特征的方法通过插值将隐藏特征映射到输入空间,以测量重要性得分。通常,在这种方法中,较大的梯度或特征值表示较高的重要性。由于梯度和隐藏特征都与模型参数高度相关,所以这些解释可以反映模型中包含的信息。
- 相关方法:
- SA
- Guided BP
- CAM
- Grad-CAM
Perturbation-Based Methods
-
思想:基于扰动的方法的潜在动机是研究不同输入扰动下的输出变化,直观地说,当保留重要的输入信息时,预测应该与原始预测相似。具体而言,首先,对于给定输入图,以不同的方式获得掩码(mask)以指示重要的输入特征(根据解释任务,会生成不同的遮罩,例如节点遮罩、边缘遮罩和节点特征遮罩),接着,将生成的掩码与输入图组合以获得包含重要输入信息的新图。最后,将新的图馈送到训练的GNN中,以评估掩码并更新掩码生成算法。直观地说,掩码捕获的重要输入特征应该传达关键的语义含义,从而导致与原始预测相似的预测。这些方法之间的区别主要在于三个方面:掩模生成算法、掩模类型和目标函数。
-
相关方法:
- GNNExplainer
- PGExplainer
- ZORRO
- GraphMask
- Causal Screening
- SubgraphX
-
注意事项:
从结构图中可以看出,对于节点特征使用的是 soft masks,对于边使用的是 discrete masks,对于节点使用的是近似 discrete masks。soft masks 包含 0 到 1 的连续数值,可以直接进行反向传播更新,但是存在 introduced evidence 问题(掩码中的任何非零或非一值都可能向输入图引入新的语义含义或新的噪声,从而影响解释结果);discrete masks 可能仅包含 1 或 0 两种离散值, 虽然可以避免 introduced evidence 问题,但是,discrete masks总是涉及不可微操作,例如采样。一种流行的解决方法是 policy gradient 技术。此外,一些研究建议使用重新参数化技巧,如 Gumbel Softmax 估计和稀疏松弛,来近似 discrete masks,这样输出掩码不是严格离散的,而是提供了一个很好的近似值,这不仅支持反向传播,而且在很大程度上缓解了 introduced evidence 问题。
Surrogate Methods
- 思想:使用简单且可解释的替代模型来近似输入示例的相邻区域的复杂深度模型的预测。这些方法假定输入示例的相邻区域中的关系不那么复杂,并且可以由更简单的代理模型很好地捕捉。然后,来自可解释代理模型的解释被用于解释原始预测。然而,由于图数据是离散的并且包含拓扑信息,因此将代理方法应用于图域是具有挑战性的。另外,还不清楚如何定义输入图的相邻区域以及哪些可解释的代理模型是合适的。
- 相关方法:
- GraphLime
- RelEx
- PGM-Explainer
Decomposition Methods
- 思想:通过将原始模型预测分解为几个项来衡量输入特征的重要性。然后,这些项被视为相应输入特征的重要性得分。这些方法直接研究模型参数,以揭示输入空间中的特征与输出预测之间的关系,其保守性质要求分解项的总和等于原始预测分数。然而,由于图包含节点、边和节点特征,因此将这种方法直接应用于图具有挑战性。将分数分布到不同的边是非常重要的,而图边包含重要的结构信息,这些信息不能被忽略。这些算法的直觉是建立分数分解规则,以将预测分数分布到输入空间。
- 相关方法:
- Layerwise Relevance Propagation (LRP)
- Excitation BP
- GNN-LRP
5.Model-Level Explanations
- 思想:图级解释研究什么样的输入图形模式可以导致特定的GNN行为,例如最大化目标预测。输入优化是获得图像分类器的模型级解释的流行方向。然而,由于离散的图拓扑信息,它不能直接应用于图模型,因此在模型级别解释GNN更具挑战性,这仍然是一个重要但研究较少的话题。目前用于解释图神经网络的唯一现有模型级方法是XGNN。
- 相关方法:
- XGNN
6.A Comprehensive Comparative Analysis
“TYPE” 表示方法属于的图解释类型,“LEARNING” 表示在对图进行解释时是否需要学习的过程,“TASK” 表示方法可以被运用到哪些类型的任务,“TARGET” 表示解释的目标,“BLACK-BOX” 表示在解释阶段,训练的GNN是否被视为黑盒,“FLOW” 表示用于解释的计算流程,“DESIGN” 表示解释方法是否专门为特定的图结构进行设计的。“GC” 表示图分类,”NC” 表示节点分类,“N” 表示节点,“E” 表示边,“NF” 表示节点特征,“Walk” 表示图游走。
7.Evaluations
Datasets
在评估可解释性算法时,使用的数据需要直观且易于可视化。另外,一份好的数据应该是数据实例与标签之间具备人类易于理解的关系,这样便于专家检验可解释性算法是否识别出这样的关系。一些常用的数据类型包括合成数据(synthetic data), 情绪图数据(sentiment graph data),和分子数据(molecular data)。
-
Synthetic data
- BA-shapes
- BA-Community
- Tree-Cycle
- Tree-Grids
- BA-2Motifs
-
Sentiment graph data
- SST2
- SST5
- Molecule data
- MUTAG
- BBBP
- Tox21
Evaluation Metrics
尽管可视化结果可以提供关于解释对人类是否合理的深刻理解,但由于缺乏基本事实,这种评估并不完全可信。另外,为了比较不同的解释方法,人类需要研究每个输入示例的结果,这很耗时。同时,人类的评价高度依赖于他们的主观理解,这是不够公平的。因此,评估指标对于研究解释方法至关重要。好的度量应该从模型的角度评估结果,例如解释是否忠实于模型。
- Fidelity
- Sparsity
- Stability
- Accuracy