图神经网络综述1-4Graph Neural Networks: A Review of Methods and Applications

221 阅读3分钟

一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第4天,点击查看活动详情

Hello,非常感谢你的关注~ 我是机器学习与风控,一名末流985的本硕,无顶会、无大厂核心部门实习,拥有多个比赛的竞赛经历,秋招刷了leetcode500题,在秋招提前批中收获字节跳动,腾讯,阿里,美团等大厂offer,最终选择入职字节风控,从事与黑产对抗的工作。我会定期分享我的春招、秋招亲身求职体验;算法岗日常工作;数据挖掘比赛,经典图模型等日常学习等有料也有趣的内容~秋招到了,欢迎各位私信找我内推!!!部门缺少开发,算法等岗位验证缺人。

对一个经典的图神经网络综述进行学习。记录其中的要点。

图神经网络的未来工作!

尽管 GNN 在不同领域取得了巨大成功 领域,值得注意的是 GNN 模型并不好 足以为任何图形中的任何图形提供令人满意的解决方案 健康)状况。在本节中,我们将陈述一些未解决的问题 以供进一步研究。 浅层结构 传统的深度神经网络可以 堆叠数百层以获得更好的性能,因为 更深的结构有更多的参数,从而提高 表现力显着。然而,图神经网络 总是浅薄的,其中大部分不超过 三层。正如 [62] 中的实验所示,堆叠多个 GCN层会导致over-smoothing,也就是说,所有 顶点将收敛到相同的值。虽然有些 研究人员已经设法解决了这个问题 [45]、[62]、 它仍然是 GNN 的最大限制。设计 真正的深度 GNN 对未来的研究来说是一个令人兴奋的挑战, 并将对理解做出相当大的贡献 GNN 的。 动态图 另一个具有挑战性的问题是如何 处理具有动态结构的图。静态图 是稳定的,因此它们可以被可行地建模,而动态的 图表介绍了不断变化的结构。当边缘和 节点出现或消失,GNN 不能自适应变化。 动态 GNN 正在积极研究中,我们 相信这是关于稳定性和 通用 GNN 的适应性。 非结构场景虽然我们已经讨论过 GNN 在非结构场景中的应用,我们 发现没有生成图的最佳方法 从原始数据。在图像领域,一些工作利用了 CNN 获得特征图,然后对它们进行上采样以形成超像素 作为节点 [49],而其他节点则直接利用 一些对象检测算法来获取对象节点。在 文本域[103],一些工作使用句法树作为 句法图,而其他人采用完全连接的图。 因此,找到最佳的图生成方法将 提供 GNN 可以做出贡献的更广泛的领域。 可扩展性如何在 webscale 中应用嵌入方法 社交网络或推荐等条件 系统对于几乎所有图嵌入来说都是一个致命的问题 算法,GNN 也不例外。缩放 上 GNN 很困难,因为许多核心步骤是 大数据环境下的计算消耗。那里 举几个关于这种现象的例子: 一、图 数据不是正则欧几里得,每个节点都有自己的 邻域结构,因此不能批量应用。然后, 计算图拉普拉斯算子也是不可行的 是数百万个节点和边。此外,我们需要指出 缩放决定了算法是否能够 应用到实际应用中。多项工作提出了 他们对这个问题的解决方案 [120] 我们正在密切关注 关注进展。