麻省理工学院林肯实验室构建的RIO程序,可自动检测和分析在网络中传播虚假信息的社交媒体账户。
林肯实验室的影响行动侦察研究小组绘制了一个2017年法国总统选举期间活跃的外国推特宣传网络。较大的红色圆圈代表有影响力的和有可能的影响行动账户。
造谣并不是一件新鲜事--比如战时用来引导公众舆论、反对敌人的宣传。然而,现在可以利用互联网和社交媒体来传播谣言。通过社交媒体传播虚假信息有能力改变选举,加强阴谋论,并播撒不和谐因素。
麻省理工学院林肯实验室人工智能软件架构和算法组的工作人员史蒂文-史密斯是该团队的成员,该团队通过启动影响行动侦察(RIO)计划,致力于更好地了解造谣活动。他们的目标是创建一个系统,自动检测虚假信息的发布,以及那些在社交媒体网络中传播这些谣言的人。今年早些时候,该团队在《美国国家科学院院刊》上发表了一篇关于他们工作的论文,并在去年秋天获得了研发100奖 。
该项目开始于2014年,当时史密斯和同事正在研究恶意团体如何利用社交媒体。他们注意到,在社交媒体数据中,有一些账户的活动很多,而且很不寻常,这些账户看起来在推崇“亲俄罗斯”的言论。
史密斯谈到这些数据时说:"我们当时有点困惑。“因此,该团队通过实验室的技术办公室申请了内部资金,并启动了该计划,来研究类似的账号是否会在2017年的法国选举中使用。
在选举前的30天里,RIO团队收集了实时社交媒体数据来搜索和分析虚假信息的传播。他们总共汇编了100万个账户的2800万条Twitter帖子。然后利用RIO系统,能够以96%的精度检测出虚假信息账户。
RIO系统的独特之处在于,它结合了多种分析技术,以便对虚假信息叙述的传播地点和方式形成一个全面的看法。
"如果你试图回答谁在社交网络上有影响力,传统上,人们看的是活动数,"研究小组的另一位成员爱德华-高说。例如,在Twitter上,分析师会考虑推文和转发的数量,"而我们发现,在许多情况下这是不够的。它实际上并不能告诉你账户对社交网络的影响。"
作为该实验室林肯学者项目(一个学费奖学金项目)的博士工作的一部分,他开发了一种统计方法(现在用于RIO),这个方法不仅可以帮助确定一个社交媒体账户是否在传播虚假信息,还可以确定该账户在多大程度上导致整个网络发生变化并放大了信息。
另一位研究小组成员Erika Mackin也应用了一种新的机器学习方法,通过研究与行为有关的数据,如账户是否与外国媒体互动以及使用何种语言,帮助RIO对这些账户进行分类。这种方法使RIO能够发现活跃在不同活动中的敌对账户,这些活动从2017年法国总统选举到Covid-19虚假信息的传播。
目前使用的大多数自动化系统只检测机器人,而RIO的另一个独特之处就在于,它可以检测并量化由机器人和人类操作的账户的影响。RIO还能够帮助使用该系统的人预测不同的反制措施如何能够阻止某一特定虚假信息活动的传播。
该团队设想RIO可用于政府,也可用于社交媒体以外的领域和传统媒体,如报纸和电视。目前,他们正在与西点军校学生约瑟夫-施莱辛格(Joseph Schlessinger)合作,后者也是麻省理工学院的研究生和林肯实验室的军事研究员,来了解各种言论如何在欧洲媒体上传播。为了深入研究影响行动的认知方面,以及个人的态度和行为如何受到虚假信息的影响,一项全新的后续计划也正在实施中。
爱德华-高表示:"抵御虚假信息不仅是国家安全的问题,也是保护民主的问题。"