持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第28天,点击查看活动详情
KGIN:Learning Intents behind Interactions with Knowledge Graph for Recommendation-WWW-2021
学习与知识图交互背后的意图以供推荐
摘要
知识图(KG)在推荐系统中起着越来越重要的作用。最近的一个技术趋势是开发基于图神经网络(GNNs)的端到端模型。然而,现有的基于gnn的模型在关系建模中是粗粒度的,无法(1)在意图的细粒度级别上识别用户-项目关系,以及(2)利用关系依赖关系来保持远程连接的语义。在本研究中,我们利用辅助物品知识探究用户-物品交互背后的意图,并提出一个新的模型——基于知识图的意图网络(KGIN)。技术上,我们将每个意图模拟为KG关系的精心组合,鼓励不同意图的独立性,以获得更好的模型能力和可解释性。此外,我们设计了一种新的GNN信息聚合方案,该方案递归地集成了长距离连接的关系序列(即关系路径)。这个方案允许我们提取关于用户意图的有用信息,并将它们编码到用户和项目的表示中。在三个基准数据集上的实验结果表明,KGIN比目前最先进的KGAT[41]、KGNN-LS[38]和CKAN[47]有显著的改进。进一步的分析表明,KGIN通过识别影响意图和关系路径为预测提供了可解释的解释。
1、Introduction
知识图(KG)在提高推荐的准确性和可解释性方面显示出巨大的潜力。KG中丰富的实体和关系信息可以补充用户与条目之间的关系建模。它们不仅揭示了项目之间的各种关联(例如,由一个人共同执导),还可以用来解释用户偏好(例如,将用户对电影的选择归因于其导演)。
从这种结构知识中学习高质量的用户和项目表示已成为知识感知推荐的主题。
早期的著作[1,4,51]从KG三元组中生成嵌入,并将其作为先验信息或内容信息来补充项表示。
一些后续研究[15,44,49]用从用户到物品的多跳路径丰富了交互,以便更好地刻画用户-物品关系。然而,这些方法很难获得高质量的路径,存在各种问题,如劳动密集型的特征工程[44]、对不同域的可移植性差[15,17]和/或性能不稳定[49]。
最近,一种技术趋势[38,39,41,47]是开发基于图神经网络(GNNs)的端到端模型[9,13,19,34]。其核心思想是利用信息聚合机制,有效地将多跳邻居集成到表示中。得益于连接建模和表示学习的集成,这些基于gnn的模型实现了良好的推荐性能。
文章认为目前基于gnn的方法在建模两个因素方面不足:
***(1)用户意图。***据我们所知,这些研究都没有在意图的细粒度级别上考虑用户项关系。一个重要的事实被忽略了:一个用户通常有多个意图,驱使用户消费不同的物品。以图1的右侧为例,意图p1强调导演(r1)和明星(r2)方面的组合,驱动用户u1观看电影i1和i5;而另一个意图是p2突出显示明星(r2)和合作伙伴(r3)方面,让用户选择电影i2。忽略用户意图的存在限制了用户项交互的建模。
***(2) 关系路径。***在这些研究中,信息聚合方案大多基于节点——也就是说,从相邻节点收集信息,而不区分信息来自哪些路径。此外,KG关系通常在相邻矩阵的衰减因子[38,41]中建模,以控制相邻矩阵的影响。如图2左侧所示,u1的表示混合了来自一跳、二跳和三跳邻居(即分别为{i1,i2}、{v1,v2,v3}、{v3})的信号。它无法保留路径(例如,从v3到u1的三跳路径中的(p1、r2、r3))所承载的关系依赖性和顺序。因此,这种基于节点的方案不足以捕捉关系之间的交互。
本文着重于通过使用项目KG来探索用户项目交互背后的用户意图,从而提高推荐的性能和可解释性。我们提出了一种新的基于知识图的意图网络(KGIN)模型,该模型由两部分组成,相应地解决了上述局限性:
(1)用户意图建模。每个用户项的交互都包含了潜在的意图。虽然我们可以将这些意图表达为潜在向量,但它们的语义难以理解。因此,我们将每个意图与KG关系上的分布联系起来,说明了关系组合的重要性。从技术上讲,意图嵌入是关系嵌入的一种注意组合,其中重要的关系被赋予更高的归因分数。此外,还引入了独立性约束,以鼓励意图之间的显著差异,从而提高解释性。
(2) 关系路径感知聚合。与基于节点的聚合机制不同,我们将关系路径视为信息通道,并将每个通道嵌入到表示向量中。由于用户意图项目三元组和KG三元组是异构的,我们为这两部分设置了不同的聚合策略,以便分别提取用户的行为模式和项目的相关性。简而言之,这种关系建模允许我们识别有影响力的意图,并将关系依赖性和路径语义编码到表示中。我们在三个真实数据集上进行了广泛的实验。实验结果表明,我们的KGIN优于KGAT[41]、KGNN-LS[38]和CKAN[47]等最先进的方法。
此外,KGIN能够在意图的粒度上解释用户行为。我们将这项工作的贡献总结为:
-
揭示基于KG的推荐中交互背后的用户意图,以获得更好的模型容量和可解释性;
-
提出了一个新模型KGIN,该模型在GNN范式下以更精细的意图粒度和关系路径的长期语义来考虑用户项关系;
-
在三个基准数据集上进行实证研究,以证明KGIN的优越性。
2、Problem Formulation
结构化数据
***用户-项目交互:***这里我们关注推荐中的隐性反馈[26],其中用户提供的关于其偏好的信号是隐性的(例如,查看、单击、购买)。 U表示用户集合,I表示项目集合,(u,i)表示用户u和项目i有交互。还有一些框架中,比如KGAT,将交互对(u,i)转化为三元组(u,r,i),r表示关系。可以看出,user-item交互项很容易与KG结合。
***Knowledge Graph:***KG以异构图形或异构信息网络的形式存储现实世界事实的结构化信息,如项目属性、分类法或外部常识知识[28,29] 。V是实体集,R是关系集。设(h,r,t)作为知识图谱的三元组,h(实体头),t(实体尾)属于实体集V,r属于关系集。例如,(Martin Freeman,star,The Hobbit I)描述了Martin Freeman是电影《霍比特人I》中的明星。项目(items)和KG实体(entries)之间存在映射(I⊂V),KG能够分析项目,并为交互数据提供补充信息。
任务描述
考虑到交互数据和KG,知识感知推荐任务是学习一个函数,该函数可以预测用户采纳某个项目的可能性。
3、Methodology
现在,我们提出了基于知识图的意图网络(KGIN)。图3显示了KGIN的工作流程。它由两个关键组成部分组成:(1)用户意图建模,它使用多个潜在意图来描述用户-项目关系,并将每个意图描述为KG关系的一个精心组合,同时鼓励不同的意图相互独立;在关系路径中,它强调的是关系关联性,而在关系路径中,它强调的是关系关联性。KGIN最终生成用户和项目的高质量表示。
3.1、User Intent Modeling
与之前基于GNN的研究[38,41,47]假设没有或只有一个交互与用户和项目之间的关系不同,我们的目标是捕捉用户行为受多个意图影响的直觉。在这里,我们将意图定义为用户选择项目的原因,这反映了所有用户行为的共性。以电影推荐为例,可能的意图是对电影属性的不同考虑,例如明星和合作伙伴的组合,或导演和类型的组合。不同的意图抽象出不同的用户行为模式。这可以通过更细粒度的假设来强化广泛使用的协同过滤[26]效果——受相似意图驱动的用户对项目的偏好相似。这种直觉促使我们在意图的粒度上建模用户项关系。
假设P是所有用户共享的意图集,我们可以将统一的 user-item 关系分割为|P |意图,并将每个(u, i)对分解为{(u, p, i)| p∈P} 。因此,我们将 user-item 交互数据重新组织为一个异构图,称为意图图(IG),它不同于之前工作中采用的同构协作图[41,47]。
***3.1.1意图的表征学习。***虽然我们可以用潜在向量来表达这些意图,但很难明确地识别每个意图的语义。一个简单的解决方案是将每个意图与一个KG关系结合起来,这是KTUP[4]提出的。然而,这种解决方案只孤立地考虑单个关系,没有考虑关系的交互和组合,因此无法细化用户意图的高级概念。例如,关系r1和r2的组合对意图p1有影响,而关系r3和r4对意图i2的影响更大。因此,我们将每个意图指定为p∈P在KG关系上的分布——从技术上讲,运用注意力策略来创建意图嵌入:
式中,e_r 是关系r的ID嵌入(暂可认为初始嵌入),它被分配了一个注意力分数 a(r,p) 来量化其重要性,形式上:
其中,w_rp是特定于特定关系r和特定意图p的可训练权重。为了简单起见,我们使用这些权重,并在未来的工作中留下对复杂注意模块的进一步探索。值得一提的是,关注并不是针对单个用户定制的,而是对所有用户的通用模式进行优化。
***3.1.2、意向的独立性建模。***不同的意图应该包含关于用户偏好的不同信息[23,24]。如果一个意图可以被其他意图推断出来,那么描述用户-项目关系可能是多余的,信息量也可能较小;相比之下,具有独特信息的意图将提供一个有用的角度来描述用户的行为模式。因此,为了更好的模型容量和解释性,我们鼓励意图的表达彼此不同。
在这里,我们引入了一个独立建模模块来指导独立意图的表征学习。这个模块可以简单地通过应用统计度量来实现,例如互信息[2]、皮尔逊相关[33]和距离相关[32,33,43]作为正则化器。这里我们提供两种实现:
- ***相互信息。***我们最小化任何两个不同意图的表示之间的互信息,从而量化它们的独立性。这种想法与对比学习不谋而合[7,12]。更正式地说,独立性建模是:
其中s(·)是测量任意两个意图表示的关联性的函数,此处设置为余弦相似函数;r是softmax函数中温度的超参数。
- ***距离相关性。***它测量任意两个变量的线性和非线性关联,当且仅当这些变量独立时,其系数为零。最小化用户意图的距离相关性使我们能够减少不同意图的依赖性,其公式如下:
优化这种损失可以鼓励不同意图之间的差异,并使这些意图具有明确的边界,从而赋予用户意图更好的解释性。
3.2、Relational Path-aware Aggregation
在对用户意图进行建模之后,我们继续在GNN基础范式下学习用户和项目的表示。以前基于GNN的推荐模型[38,39,41]已经表明,邻域聚合方案是一种很有前途的端到端方法,可以将多跳邻居集成到表示中。更具体地说,自我节点的表示向量是通过递归聚合和转换其多跳邻居的表示来计算的。
然而,我们认为当前的聚合方案大多基于节点,这限制了结构知识的益处,原因有两个:(1)聚合器专注于组合邻域信息,而不区分它们来自哪些路径。考虑图2中的示例,自我节点u1和它的2跳邻居v2之间有三个信息通道(应该是两个?):Path1(下图所示)。在构建v2传递的神经信息时,基于节点的聚合器主要通过衰减因子变换和重新缩放v2的表示,而不考虑不同通道的影响。因此,它们不足以在表示中保留结构信息。此外,(2)当前基于节点的聚合器通常通过注意网络[38,41,47]对衰减因子中的KG关系进行建模,以控制从邻居传播的信息量。这限制了KG关系对节点表示的贡献。此外,没有以显式方式捕获路径Path2(下图所示)中的关系依赖性(例如,(p2,r2,r3))。因此,我们的目标是设计一个关系路径感知聚合方案来解决这两个限制。
u1与v2之间的信息通道 Path1那每个人
u1与v3之间的路径 Path2
***3.2.1 意向图上的聚合层。***我们首先从IG中提炼协作信息。如前所述,CF效应[26]通过假设行为相似的用户会对物品有相似的偏好,对用户模式进行了强有力的描述。这启发我们将个人历史(即用户以前使用过的项目)视为个人用户预先存在的功能。此外,在我们的IG中,我们可以通过假设具有相似意图的用户对项目表现出相似的偏好,在用户意图的粒度级别上捕获更细粒度的模式。考虑到IG中的用户u,我们使用Nu={(p,i)|(u,p,i)∈C} 为了表示用户u周围的意向感知历史和一阶连通性。从技术上讲,我们可以集成历史项目中的意向感知信息,以创建用户u的表示形式:
e_u1是用户u的表示,f_IG是一阶聚合函数,e_p是用户u与项目i之间的意图表示,不随层数改变,文中给出一种聚合函数的实现:
其中e_i0是项目i的ID嵌入(暂可认为初始嵌入);⊙ 是最基本的函数。我们用两种见解来驾驭它。(1) 对于一个给定的用户,不同的意图将有不同的贡献来激励他的行为。因此,我们引入了注意力评分β(u,p),以区分意图p的重要性,如下所示:
其中e_u0∈R是用户u的ID嵌入(暂可认为初始嵌入),使得重要性评分个性化。(2) 与之前研究中使用衰减因子[38,41,47]或正则化项[41]的想法不同,我们强调了意图关系在聚合过程中的作用。因此,我们通过元素的乘积 β(u,p)e_p⊙e_i0 来构造项目i的消息。因此,我们能够在用户表示中显式地表达一阶意图感知信息。
***3.2.2、知识图上的聚合层。***然后,我们重点讨论以KG为单位的聚合方案。由于一个实体可以包含多个KG三元组,因此它可以将其他连接的实体作为其属性,以反映项目之间的内容相似性。例如,电影《霍比特人一世》可以由导演彼得·杰克逊和明星马丁·弗里曼来描述。更正式地说,我们使用Ni={(r,v)|(i,r,v)∈G} 要表示项目i的属性和一阶连接性,然后集成连接实体的关系感知信息以生成项目i的表示,请执行以下操作:
e_i1在哪里∈ Rd是从一阶连通性中收集信息的表示;fKG(·)是从每个连接(i,r,v)中提取和整合信息的聚合函数。在这里,我们考虑聚合器中的关系上下文。直观地说,每个KG实体在不同的关系上下文中具有不同的语义和含义。例如,实体昆汀·塔伦蒂诺(Quentin Tarantino,director,Django Unchained)和(Quentin Tarantino,star,Django Unchained)分别表达与导演和明星概念相关的信号。然而,之前的研究[38,41,47]仅通过注意机制模拟衰变因子中的KG关系,以控制昆汀·塔伦蒂诺对Django Unchained表征的贡献。相反,我们将聚合器中的关系上下文建模为:
其中e_v0是实体v的ID嵌入。对于每个三元组(i,r,v),我们设计了一个关系消息e_r⊙ e_v0通过将关系r建模为投影或旋转运算符[30]。因此,关系信息能够揭示三元组所携带的不同含义,即使它们拥有相同的实体。类似地,我们可以得到每个KG实体的表示e_v1其中v∈V.
***3.2.3、捕获关系路径。***在对方程(6)和(9)中的一阶连接性进行建模后,我们进一步堆叠更多聚集层,以收集来自高阶邻居的影响信号。 技术上,我们递归地将用户u和项目i在l层之后的表示形式表述为:
得益于我们的关系建模,这些表示能够存储多跳路径的整体语义,并突出关系依赖性。
其中N_il是所有i的l-hop路径的集合。显然,这种表示反映了关系之间的相互作用,并保留了路径的整体语义。这与当前知识感知推荐中采用的聚合机制有很大不同,后者忽略了KG关系的重要性,因此无法捕获关系路径。
3.3、Model Prediction
在l层之后,我们获得用户u和项目i在不同层的表示,然后将它们总结为最终表示:
通过这样做,路径的意图感知关系和KG关系依赖性被编码到最终表示中。
此后,我们在用户和项目表示上使用内积来预测用户采纳项目的可能性:
3.4、Model Optimization
我们选择成对的BPR损失[26]来重建历史数据。具体而言,它认为,对于给定用户,其历史项目的预测分数应高于未观察到的项目:
其中O={(u,i,j)|(u,i)∈O+, (u,j)∈O−} 训练数据集是由观察到的相互作用O+和未观察到的对应物O−组成。通过结合独立性损失和BPR损失,我们最小化以下目标函数来学习模型参数:
3.5、Model Analysis
***3.5.1、型号尺寸。***最近的研究[48]表明,使用非线性特征变换可能会使GNN难以训练。因此,在KGIN的聚合方案中,我们丢弃了非线性激活函数和特征变换矩阵。因此,KGIN的模型参数包括(1)用户ID嵌入、KG实体(包括项)和KG关系(三元组);以及(2)用户意图的ID嵌入和注意力的权重w。
***3.5.2、时间复杂性。***KGIN的时间成本主要来自用户意图建模和聚合方案。在相同的实验设置下(即不同层的表示大小),KGIN的复杂性与KGAT和CKAN相当。
4、Experiments
我们提供了实证结果来证明我们提出的KGIN的有效性。这些实验旨在回答以下研究问题:
-
RQ1:与最先进的知识感知推荐模型相比,KGIN的表现如何?
-
RQ2:设计(例如,用户意图的数量和独立性,关系路径的深度)对KGIN关系建模的改进有何影响?
-
RQ3:KGIN能否提供关于用户意图的见解,并给出可解释性的直观印象?
4.1、Experimental Settings
***数据集描述。***在实验中,我们使用了三个基准数据集来推荐书籍、音乐和时装:(1)我们使用了亚马逊书籍和KGAT[41]发布的最后一个FM数据集;(2)我们进一步引入阿里巴巴iFashion数据集[8]来研究项目知识的有效性。采用了10 core 设置,即丢弃交互少于10次的用户和项目,并过滤掉少于10个三元组的KG实体。表1总结了数据集的统计信息,其中我们只列出了典型关系的数量,并在实验中用反向关系构造了三元组。在训练阶段,每个观察到的用户项目交互都是一个正样本,而用户之前没有采用的项目被随机抽样,将用户配对为一个负样本。
参数设置。使用PyTorch框架实现KGIN模型,我们将所有方法的ID嵌入大小固定为64,优化器固定为Adam[18],批处理大小固定为1024。 进行网格搜索以确认每种方法的最佳设置——更具体地说,学习率调整为{0.0001, 0.001, 0.01} ,附加约束的系数(例如,所有方法中的L2正则化、KGIN中的独立建模、CKE和KGAT中的TransR、KGNN-LS中的标签平滑度)在搜索中{0.00001, 0.0001, · · · , 0.1} ,对于基于GNN的方法,GNN层的数量L被调整为{1,2,3}。此外,对于KGNN-LS和CKAN,我们将邻域大小设置为16,批大小设置为128。我们使用Xavier[11]初始化模型参数,同时使用MF的预训练ID嵌入作为KGAT的初始化。KGIN的详细设置见附录A.1。我们观察到使用方程(3)和(4)具有相似的趋势和性能,因此报告了方程(3)的结果。我们使用KGIN-3来表示具有三个关系路径聚合层的推荐者模型,以及其他类似的符号。在没有规范的情况下,我们将用户意图的数量|P|固定为4,将关系路径聚合层的数量L固定为3。此外,在4.3.1和4.3.2节中,我们通过改变 K 为{1,2,4,8}和 L 为{1,2,3}来研究它们的影响。
4.2、Performance Comparison (RQ1)
***RQ1:***与最先进的知识感知推荐模型相比,KGIN的表现如何?
***1、***KGIN在三个数据集的所有衡量指标上始终优于所有基线。更具体地说,它实现了比最强大的基线关于 ndcg@20 在亚马逊图书、Last FM和阿里巴巴iFashion上显著的改进,分别提高了14.51%、13.97%和5.91%。这证明了KGIN的合理性和有效性。我们将这些改进归功于KGIN的关系建模:
(1)通过揭示用户意图,KGIN能够更好地描述用户和项目之间的关系,并产生更强大的用户和项目表示。相比之下,所有基线都忽略了隐藏的用户意图,并将用户项边缘建模为收集信息的同质通道;
(2) 得益于我们的关系路径聚合方案,与基于GNN的基线(即KGAT、CKAN、KGNN-LS)相比,KGIN可以保留路径的整体语义,并从KG收集更多信息信号;
(3) 在IG和KG上应用不同的聚合方案使KGIN能够更好地将协作信号和项目知识编码到用户和项目表示中。
***2、***通过对三个数据集的KGIN进行联合分析,我们发现亚马逊图书的改进比阿里巴巴iFashion的改进更为显著。这是合理的,因为(1)亚马逊图书上的交互和KG数据都比阿里巴巴iFashion上提供了更密集、更丰富的信息;(2)在阿里巴巴iFashion中,一阶连接性(时装套装,包括时装员工)主导着KG三元组。这表明KGIN善于发挥远程连接的潜力。
***3、***未使用KG会限制MF的性能。通过简单地将KG嵌入到MF中,CKE的性能优于MF。这些发现与之前的研究[4]一致,表明了KG等副信息的重要性。
***4、***基于GNN的方法(即KGAT、CKAN、KGNN-LS)优于亚马逊图书和Last FM中的CKE,这表明了远程连接建模的重要性。这些改进来自于使用节点的局部结构——更具体地说,多跳邻域——来改进表示学习。然而,在阿里巴巴iFashion,CKE的表现比他们好。一些可能的原因是:(1)这些基于GNN的方法涉及额外的非线性特征变换,这对训练来说相当繁重,因此会降低性能[14,48];(2) CKE中的TransR成功捕获了阿里巴巴iFashion的主要一级连接。
***5、***KGAT、KGNN-LS和CKAN的结果处于相同水平,优于R-GCN。虽然在R-GCN中,通过KG关系转换邻居信息的效用比在其他方法中作为衰减因子更好,但R-GCN最初不是为推荐而设计的,因此无法正确地建模用户项关系。
4.3、Relational Modeling of KGIN (RQ2)
***RQ2:***设计(例如,用户意图的数量和独立性,关系路径的深度)对KGIN关系建模的改进有何影响?
由于关系建模是KGIN的核心,我们还进行了一些研究,以调查其有效性——具体来说,用户意图和KG关系的存在、关系路径聚合层的数量、用户意图的粒度以及用户意图的独立性如何影响我们的模型。
***4.3.1、存在用户意图和KG关系的影响。***我们首先回答这个问题:考虑用户意图或关系是否重要?为此,构建了两种变体:(1)丢弃所有用户意图和KG关系,称为KGIN3w/o I&R;(2)仅删除所有用户意图(| P |=0),称为KGIN-3w/o I。我们在表3中总结了结果。显然,与表2中的KGIN-3相比,删除所有关系(即KGIN-3w/o i&R)显著降低了预测精度,表明了关系建模的必要性。更具体地说,KGIN-3w/o I&R只在一个空间中传播节点的信息,不保留任何关系语义,因此扭曲了节点之间的内部关系。类似地,未经探索的隐藏用户意图(即KGIN-3w/o i)也会降低性能。尽管KGIN-3w/o I保留了KG关系的建模,但它只考虑用户获得的更粗糙的偏好,从而导致次优的用户表示。
***4.3.2、模型深度的影响。***然后,我们考虑改变关系路径聚合层的数量。堆叠更多层能够将远程连接(即更长路径)携带的信息集成到节点表示中。我们在这里搜索퐿 在{1,2,3}范围内,将结果总结在表4中。我们注意到:
-
在大多数情况下,增加模型深度能够提高预测结果。更具体地说,KGIN-2比KGIN-1有显著的改进。我们将这种改进归因于两个原因:(1)堆叠更多层,探索更多由KG三元组连接的相关项目,并加深对用户兴趣的理解。KGIN-1只考虑一阶连接性(例如,用户意图项三元组,KG三元组),而KGIN-2显示两个跳路径;(2) 与用户意图相关的更多信息来自更长的关系路径,从而更好地分析用户对项目的偏好。
-
除了KGIN-2,KGIN-3在亚马逊图书和LastFM中的效果一直更好。这从经验上表明,高阶连接性与二阶连接性是互补的,从而产生更好的节点表示。
-
然而,在阿里巴巴iFashion中,KGIN-3的结果比KGIN-2差。这再次承认了阿里巴巴iFashion的固有特征——大多数KG三胞胎都是KGIN-2中捕捉到的物品的一阶连接性(时尚服装,包括时尚员工)。
***4.3.3、意图建模的影响。***为了分析意图数的影响,我们在{1,2,4,8}范围内改变| P |,并在图4中展示了Amazon Book和Last FM数据集上的性能变化曲线。我们发现:•在大多数情况下,增加意向数量会提高性能。具体来说,当只对粗粒度关系(即| P |=1)建模时,KGIN-3的整体性能较差。这再次强调了探索多个用户意图的好处在Amazon Book中,在|P |=4之外再进行一次分区会降低精度。一个可能的原因是,独立性建模鼓励了意图之间的不相关性,但也使一些意图过于细粒度,无法携带有用的信息。我们将意向粒度的探索留给未来的工作有趣的是,与Amazon Book上的结果相比,设置| P |=8可以提高上一个FM的精度,尽管Amazon Book与上一个FM相比包含更丰富的KG关系集。我们将其归因于两个数据集的差异。特别是,Last FM中的KG是从专辑、歌曲和艺术家的属性转换而来的,而Amazon Book中的KG是从Freebase中提取的,包含与用户行为无关的嘈杂关系。
我们还进行了消融研究,以调查独立建模的影响(参见第3.1.2节)。具体来说,我们禁用该模块以构建变量KGIN-3w/o Ind,并在表5中显示w.r.t.距离相关性的结果。显然,虽然KGIN-3w/o Ind的推荐性能接近于KGIN-3,但KGIN-3w/o Ind获得了更大的相关系数,并且无法区分用户意图,这对于理解用户行为仍然是不透明的。
4.4、Explainability of KGIN (RQ3)
***RQ3:***KGIN能否提供关于用户意图的见解,并给出可解释性的直观印象?
在本节中,我们将介绍用户意图的语义,并提供两个Amazon Book和Last FM的示例,以直观地展示我们的可解释性。如图5所示,我们有以下观察结果:
-
KGIN首先通过KG关系的各种组合诱导意图——所有用户的共性。对于意图,关系的权重反映了其对影响用户行为的重要性。例如,在亚马逊图书中,第一个意图p1的前两个关系是戏剧。玩类型和戏剧。演奏。在这一类型中,第一次表演的日期和虚构的宇宙被分配为第二意图p3的最高分数。显然,学习意图抽象了用户选择的共同原因。此外,由于独立建模,意图往往有明确的边界,从而从不同和独立的角度描述用户行为。然而,p1和p3高度相关。这是有道理的,因为在最后一个FM中只有9个关系。
-
可以发现,一些关系在多个意图中获得了较高的权重,比如最后一个FM中的版本。这表明这种关系是与用户行为相关的共同因素。KGIN将其与其他关系(如特色艺术家)相结合,将p1作为特定艺术家创作的音乐的特殊版本。
-
KGIN为每个交互创建实例解释——单个用户的个性化。对于亚马逊图书中的互动u231-i21904,KGIN根据注意力得分搜索最具影响力的意图p1(参见等式(8))。因此,它解释了用户u231选择音乐i21904时的这种行为,因为它符合她对特色艺术家和特定版本的兴趣。
5、Related work
与KG合并的现有推荐车型大致分为四类。
基于嵌入的方法[1,4,16,35,37,51]主要关注一阶连接性(即交互数据中的用户项对,KG中的三元组),使用KG嵌入技术(例如TransE[3]和TransH[46])学习实体嵌入,然后将其作为项的先验或上下文信息来指导推荐模型。例如,CKE[51]将TransE应用于KG三元组,并将项目的知识感知嵌入到矩阵分解(MF)[26]中。KTUP[4]同时使用TransH on user item交互和KG triplets,共同学习用户偏好并完成KG。尽管这些方法展示了知识感知嵌入的好处,但它们忽略了更高阶的连通性。这使得它们无法捕获两个节点之间路径的长期语义或顺序依赖关系,从而限制了它们揭示底层用户项关系的能力。
基于路径的方法[5,15,25,31,36,44]通过提取通过KG实体连接目标用户和项目节点的路径来考虑远程连接。然后这些路径被用来预测用户偏好,比如通过递归神经网络[31,44]和记忆网络[36]。例如,RippleNet[36]会记住项目表示以及每个用户的根路径,并使用它们来增强用户表示。显然,推荐的准确性在很大程度上取决于路径的质量。然而,两种主流的路径提取方法存在一些固有的局限性:(1)当涉及大规模图时,使用蛮力搜索很容易导致耗费大量人力和时间的特征工程[44];(2) 当使用元路径模式过滤路径实例时,需要领域专家预定义特定于领域的模式,从而导致不同领域的可转移性较差[15,17]。
基于策略的方法[40,45,49,52,53]从强化学习(RL)最近的成功中得到启发,并设计RL代理来学习路径发现策略。例如,PGPR[49]利用策略网络来探索目标用户感兴趣的项目。这些基于RL的策略网络可以被视为蛮力搜索的高效且廉价的替代方案,蛮力搜索是会话推荐系统的主干模型[10,21]。然而,稀疏的奖励信号、巨大的行动空间和基于策略梯度的优化使得这些网络难以训练并收敛到稳定且令人满意的解[50,52]。
基于GNN的方法[17,38,39,41,47]基于图形神经网络(GNN)的信息聚合机制[13,14,19,34,42]。通常,它合并来自一跳节点的信息,以更新ego节点的表示;当递归地执行这种传播时,来自多跳节点的信息可以被编码在表示中。因此,这些方法能够模拟远程连接。例如,KGAT[41]将用户项交互和KG组合为一个异构图,然后对其应用聚合机制。CKAN[47]使用两种不同的策略分别传播协作信号和知识感知信号。最近,NIRec[17]提出将基于路径和GNN的模型结合起来,通过元路径引导的邻域在两个节点之间传播交互模式。然而,据我们所知,目前基于GNN的方法假设用户和项目之间只存在一种关系,但未探究隐藏的意图。此外,它们中的大多数都无法保持路径中的关系依赖性。我们的工作与他们的不同之处在于这些关系建模——我们专注于在意图的粒度上展示用户项关系,并将关系路径编码到表示中,以获得更好的性能和可解释性。
6、Conclusion and Future work
在未来的工作中,我们将探索推荐中的自监督学习,以便通过自监督任务生成辅助监督,并揭示数据实例之间的内部关系。此外,我们希望将因果概念(如因果效应推理、反事实推理和解构)引入到知识感知推荐中,以发现和放大偏见[6]。