改进文本与知识库之间的“实体链接”
新模型在准确率上树立了新标准,同时实现了60倍的加速。
作者:Tom Ayoola, Joseph Fisher | 2022年7月8日 | 阅读时长4分钟
会议
NAACL 2022
相关出版物
- ReFinED:一种高效的、具备零样本能力的端到端实体链接方法
- 通过知识库推理改进实体消歧
实体链接(EL) 是指将文本中的实体指称自动链接到知识库(如Wikidata)中对应条目的过程。例如,在下图中,我们的目标是将指称“England”链接到“英格兰足球队”这个实体,而不是“英格兰”这个国家实体。
在此句子中,实体名称“England”应链接到知识库中“英格兰国家足球队”的条目,而非“英格兰”这个国家的条目。
实体链接是自然语言处理(NLP)应用中常见的首要步骤,例如问答系统、信息抽取和自然语言理解。它在连接非结构化文本与知识库方面至关重要,从而能够访问海量的策展数据。
当前的EL系统在标准数据集上表现优异,但在实际应用部署时存在若干限制。首先,它们计算密集,导致大规模处理成本高昂。
其次,大多数EL系统设计为链接到特定的知识库(通常是维基百科),难以适配其他知识库。最后,现有最高效的方法无法将文本链接到训练后才被引入知识库的实体(称为零样本EL任务),这意味着它们必须频繁地重新训练以保持更新。
在NAACL 2022的工业界轨道上,我们介绍了一个名为 ReFinED 的新EL系统,它解决了上述三个问题。我们在主会议的另一篇论文中进一步拓展了这项工作,引入了一种将额外知识库信息融入模型的新方法,从而进一步提升了准确率。
ReFinED在标准EL数据集上的平均F1分数(一种综合考虑假阳性和假阴性的指标)超越现有最佳水平3.7分,并且其速度比具有竞争性能的现有方法快60倍。ReFinED能够泛化到大规模知识库(如Wikidata,其实体数量是维基百科的15倍),并支持零样本实体链接。速度、准确率和可扩展性的结合,使ReFinED成为一个高效且成本经济的系统,用于从网络规模的数据集中抽取实体,该模型已在某机构内部成功部署。
结合细粒度类型与描述的实体链接
EL具有挑战性,因为实体指称往往存在歧义。因此,EL系统必须有效利用上下文(周围的词语)来可靠地消解实体指称。
最近的EL系统使用深度学习方法,将指称不直接与实体匹配,而是与知识库中存储的信息(如文本实体描述或细粒度实体类型)进行匹配。这种方法对于链接到训练数据中未出现的实体(零样本EL)具有优势,因为用于描述这些实体的信息具有模型在训练期间已见过的属性。
然而,这种具备零样本能力的方法在计算上比非零样本模型昂贵一个数量级,因为它们需要大量的实体类型和/或多次前向传播模型来编码指称和描述。这使得对于某些应用来说,大规模处理的成本高得令人望而却步。
与早期的零样本能力模型类似,ReFinED使用细粒度实体类型和实体描述来执行EL。但它使用了一个简单的基于Transformer的编码器,其性能优于更复杂的架构,在五个EL数据集上超越了现有最佳水平。
ReFinED计算两个分数:描述分数和类型分数,用于评估输入句子与知识库中候选实体的匹配程度。
与先前工作不同,ReFinED在单次前向传播中执行指称检测(识别实体指称跨度)、细粒度实体类型预测(预测实体类型)和实体消歧(为实体打分),适用于文档中的所有指称。这使得它比同类模型快60倍,因此运行时的资源效率也提高了约60倍。
在底层,ReFinED是一个基于Transformer的神经网络,它计算两个分数:描述分数和实体类型分数,以指示一个实体对于一个指称的合适程度。
融入关系数据
这种方法的一个缺点是,某些指称的候选实体可能无法仅通过知识库的实体描述和类型来消歧。例如,考虑下面这个句子,以及“Clinton”可能指代的两个实体的实体描述和类型:
有时,仅凭描述和类型信息不足以区分两个知识库条目。
仅凭句子的上下文以及知识库的描述和类型,无法正确判断该句子指的是希拉里·克林顿还是比尔·克林顿。
我们在NAACL的第二篇论文《通过知识库推理改进实体消歧》解决了这一缺陷。我们提出了一种方法,使用与候选实体相关联的额外知识库事实。知识库事实编码了实体对之间的关系,如下例所示:
当类型和描述信息不足以区分候选实体时,模型会使用额外的知识库事实。
为了利用这类信息,我们为模型增加了一个额外机制,使其能够预测文本中指称对之间的关联关系。例如,模型会从句子上下文中推断出“Clinton”的出生地和受教育地分别是“Hope, Arkansas”和“Hot Springs High School”。然后,我们可以将这些推断与知识库中的事实进行匹配。
在这种情况下,如下图所示,我们会发现这两个预测与比尔·克林顿的知识库事实相匹配,而与希拉里·克林顿的不匹配。因此,我们的模型会提高比尔·克林顿的得分,从而有望做出正确的预测。
增加利用知识库事实的机制提高了模型准确率。
通过将这一机制添加到模型中,我们得以在文献中常用的六个数据集上平均提高1.3个F1分数,并在专注于极具挑战性示例的“ShadowLink”数据集上提高了12.7个F1分数。
研究领域
- 对话式AI
- 搜索与信息检索
标签
- 自然语言理解 (NLU)
- NAACLFINISHED