小知识,大挑战!本文正在参与“ 程序员必备小知识 ”创作活动
本文同时参与 「掘力星计划」 ,赢取创作大礼包,挑战创作激励金
介绍: 我们提出了事实新闻图 (FANG),这是一种新颖的图形社交上下文表示和假新闻学习框架 检测。 与之前针对目标的上下文模型不同 性能,我们的重点是表示学习。 比较的 对于转导模型,FANG 在训练中是可扩展的,因为它没有 必须维护所有节点,并且在推理时高效, 无需重新处理整个图形。 我们的实验 结果表明 FANG 更擅长捕捉社会背景 与最近的图形相比,高保真表示 和非图形模型。 特别是,FANG 产生了显着的 对假新闻检测任务的改进,并且它是健壮的 在训练数据有限的情况下。 我们进一步证明 FANG 学习到的表征推广到相关任务, 例如预测新闻媒体报道的真实性。
总结:
社交媒体已成为重要的信息来源对于世界各地的许多人。不幸的是,并非他们发布的所有信息都是真实的。在政治选举或选举等重大事件期间大流行的爆发,带有恶意的虚假信息 [38],俗称“假新闻”,会扰乱社会行为、公众 公平、理性。作为抗击 COVID-19 的一部分, 世界卫生组织还解决了由 与感染和治愈相关的致命虚假信息 [41]。 许多网站和社交媒体都致力于识别 虚假信息。例如,Facebook 鼓励用户报告不可信的帖子并聘请专业的事实核查员 揭露可疑消息。手动事实检查也用于 事实核查网站,例如 Snopes、FactCheck、PolitiFact 和 完整的事实。为了随着信息量的增加而扩展,自动新闻验证系统将外部知识数据库视为证据[13,34,42]。循证方法 实现高精度并提供潜在的可解释性,但它们 还需要相当多的人力。此外,基于文本证据的文本声明的事实检查方法并不容易 适用于有关图像或视频的声明。 最近的一些工作又发生了翻天覆地的变化,并探索了新闻传播过程的语境特征。他们观察到 当社交用户面对虚假新闻与真实新闻时的独特参与模式 [17, 25]。例如,显示的假新闻 表 1 在发布后不久就有了许多约定。这些 主要是带有负面情绪的逐字再循环 原帖由典型的骇人听闻的假冒内容解释 消息。在那个短暂的时间窗口之后,我们看到质疑新闻有效性的否认帖子,立场分布趋于稳定 之后几乎没有任何支持。相比之下,表 1 中的真实新闻示例调用了适度参与,主要包括 具有中性情绪且迅速稳定的支持性帖子。 用户感知的这种时间变化是重要的信号 用于区分假新闻和真新闻。 以前的工作提出了社会背景的部分表示 以 (i) 新闻、来源和用户为主要实体,以及 (ii) 立场, 友谊和出版作为主要的互动 [16, 32, 33, 39]。 然而,他们并没有过多地强调表示的质量、实体的建模及其交互,并且最低限度地强调 完全受监督的设置。