检索到了两篇关于推荐系统的论文,一篇是关于在知识图上改进负采样策略的,另一篇是在图上进行对抗学习的综述。\
Reinforced Negative Sampling over Knowledge Graph for Recommendation
关键字: 强化学习+知识图+矩阵分解
概述: 正确处理缺失数据是推荐场景中的一项基本挑战。目前的大多数工作都是从未观察到的数据中进行负采样,从而为推荐模型的训练提供负样本。但是,现有的静态或自适应负采样策略不足以产生高质量的负采样,也不利于模型训练和反映用户的实际需求。
在该项工作中,其假设项目知识图(KG)提供了项目与KG实体之间的丰富关系,可能有助于推断富含信息量的和真实的负样本。为此,其开发了一个新的负抽样模型,即“知识图策略网络(KGPolicy)”,该模型可作为强化学习代理来探索高质量的负样本。具体而言,通过执行设计的探索操作,它可以从目标正互动中导航,自适应地接收具有知识意识的负信号,并最终产生潜在的负样本来训练推荐系统。
开源代码:
A Survey of Adversarial Learning on Graph
关键字: 对抗学习+图表示+综述\
概述: 图上的深度学习模型在各种图分析任务(例如节点分类,链接预测和图聚类)中均取得了卓越的性能。但是,它们暴露了对设计良好的输入(即对抗性样本)的不确定性和不可靠性。因此,针对不同图分析任务中的攻击和防御都出现了各种研究,从而导致了图对抗学习中的军备竞赛。例如,攻击者具有中毒和逃避攻击,防御小组相应地具有基于预处理和对抗的方法。
尽管这些工作很多,但仍然缺乏统一的问题定义和全面的审查。为了弥合这一差距,该文系统地研究和总结了有关图对抗学习任务的现有工作。具体来说,其调查并统一现有工作在图分析任务中的攻击和防御,并同时给出正确的定义和分类法。此外,还强调了相关评估指标的重要性,并对其进行了全面的调查和总结。
开源代码:
往期精彩回顾
适合初学者入门人工智能的路线及资料下载机器学习在线手册深度学习在线手册AI基础下载(pdf更新到25集)本站qq群1003271085,加入微信群请回复“加群”获取一折本站知识星球优惠券,复制链接直接打开:https://t.zsxq.com/yFQV7am喜欢文章,点个在看