一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第2天,点击查看活动详情。
Hello,非常感谢你的关注~ 我是机器学习与风控,一名末流985的本硕,无顶会、无大厂核心部门实习,拥有多个比赛的竞赛经历,秋招刷了leetcode500题,在秋招提前批中收获字节跳动,腾讯,阿里,美团等大厂offer,最终选择入职字节风控,从事与黑产对抗的工作。我会定期分享我的春招、秋招亲身求职体验;算法岗日常工作;数据挖掘比赛,经典图模型等日常学习等有料也有趣的内容~秋招到了,欢迎各位私信找我内推!!!部门缺少开发,算法等岗位验证缺人。
对一个经典的图神经网络综述进行学习。记录其中的要点。
首个GNN的缺陷:
- 首先,对于不动点,迭代更新节点隐藏状态效率较低。现有优秀模型的每一层都不一样,如果放宽不动点的假设,我们可以设计一个多层的GNN来得到一个稳定的节点及其邻域的表示。GNN在迭代中使用相同的参数,而大多数流行的神经网络在不同的层中使用不同的参数,这是一种层次特征提取方法。节点隐藏状态的更新是一个循序渐进的过程,可以从GRU和LSTM等RNN内核中受益。
- 没有考虑不同边点信息。为边设计学习点参数。
- 第三,在边缘上还存在一些信息特征,这些特征在原始GNN中无法有效建模。此外,如何学习边缘的隐藏状态也是一个重要的问题。最后,如果我们专注于节点的表示而不是图的表示,就不适合使用不动点,因为在不动点上的表示的分布在值上会非常平滑,用于区分每个节点的信息也会比较少。 不动点的假设更多是对图有效,对节点分类不行!
图神经网络的变体 图类型以及建模不同类型图方法。 图的不同传播方式。 图的不同更新方式。传播步骤和输出步骤至关重要 在模型中获取节点的隐藏状态 (或边缘)。 正如我们在下面列出的,有几个主要的修改 在原始图的传播步骤中 神经网络模型,而研究人员通常遵循 输出中的简单前馈神经网络设置。
Hello,非常感谢你的关注~ 我是机器学习与风控,一名末流985的本硕,无顶会、无大厂核心部门实习,拥有多个比赛的竞赛经历,秋招刷了leetcode500题,在秋招提前批中收获字节跳动,腾讯,阿里,美团等大厂offer,最终选择入职字节风控,从事与黑产对抗的工作。我会定期分享我的春招、秋招亲身求职体验;算法岗日常工作;数据挖掘比赛,经典图模型等日常学习等有料也有趣的内容~秋招到了,欢迎各位私信找我内推!!!部门缺少开发,算法等岗位验证缺人。