某机构在EMNLP 2021的23篇论文
下周,某机构的研究人员将在 Empirical Methods in Natural Language Processing (EMNLP) 会议上发表23篇论文,其中大部分集中在两个主题上:自然语言理解(即文本的语义解释)和问答系统。这两者对于包括 Alexa、某云服务和某电商平台在内的某机构各项业务都至关重要。其余10篇论文涵盖了从自学习和信息检索到语言建模和机器翻译等一系列主题。
自然语言理解
在自然语言理解领域,某机构的研究人员应用了一系列技术——如半监督学习、少样本学习和对比学习——来解决各种子问题,例如视觉指代表达识别(即识别自然语言表达指的是图像中的哪个对象)、共指消解(即确定不同术语是否指代同一实体)以及处理分布偏移(即推理时的数据分布与训练集分布不匹配)。
- 多领域口语语言理解中的反事实强盗学习反馈归因 (Tobias Falke, Patrick Lehnen)
- MetaTS:用于最小监督下多语言序列标注的元师生网络 (Zheng Li, Danqing Zhang, Tianyu Cao, Ying Wei, Yiwei Song, Bing Yin)
元师生网络框架,一种师生框架,允许教师根据学生的反馈动态调整其伪标注策略。
- 关注语境:语境化在神经模块网络中对视觉指代表达理解的影响 (Arjun R. Akula, Spandana Gella, Keze Wang, Song-Chun Zhu, Siva Reddy)
- 用于跨语言分类的最近邻少样本学习 (M. Saiful Bari, Batool Haider, Saab Mansour)
- ODIST:通过分布偏移实例进行开放世界分类 (Lei Shu, Yassine Benajiba, Saab Mansour, Yi Zhang)
- 句子表示的成对监督对比学习 (Dejiao Zhang, Shang-Wen Li, Wei Xiao, Henghui Zhu, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang)
- 序列式跨文档共指消解 (Emily Allaway, Shuai Wang, Miguel Ballesteros)
问答系统
某机构研究人员在问答系统方面的工作包括:帮助对话式AI代理在与客户互动时提出后续问题;过滤无法回答的问题以防止系统资源浪费;以及少样本学习。
- 使用可微知识图谱进行端到端的实体消解与问答 (Armin Oliya, Amir Saffari, Priyanka Sen, Tom Ayoola)
- 在可微知识图谱上扩展带有交集的端到端问答 (Priyanka Sen, Amir Saffari, Armin Oliya)
- FewshotQA:使用预训练文本到文本模型进行问答任务少样本学习的框架 (Rakesh Chada, Pradeep Natarajan)
一种用于问答的少样本学习新方法,在微调阶段将任务表述为掩码跨度填充。这使得在微调期间可以利用预训练目标,使系统具有极高的样本效率。上图:预训练框架;中图:现有的微调框架;底图:提出的微调框架。
- 通过可微奖励模仿学习生成自包含且以摘要为中心的问答对 (Li Zhou, Kevin Small, Yong Zhang, Sandeep Atluri)
- 这个问题会被回答吗?通过答案模型蒸馏进行问题过滤以实现高效问答 (Siddhant Garg, Alessandro Moschitti)
- 基于参考的弱监督:使用网络数据进行答案句选择 (Vivek Krishnamurthy, Thuy Vu, Alessandro Moschitti)
机器学习的公平性
某云服务的研究人员在一篇关于缓解机器翻译模型中的性别偏见的论文中探讨了公平性问题。
- GFST:性别过滤的自训练,提升翻译中的性别准确性 (Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu)
信息检索
在信息检索领域,某机构的论文研究了一种用于对话式搜索的集成模型,以及识别产品评论中可能造成评论者情绪误导的反事实主张。
- 面向在线购物的端到端对话式搜索与话语迁移 (Liqiang Xiao, Jun Ma, Xin Luna Dong, Pascual Martinez-Gomez, Nasser Zalmout, Chenwei Zhang, Tong Zhao, Hao He, Yaohui Jin)
- 我希望我喜欢这个,但我没有:一个用于产品评论中反事实检测的多语言数据集 (James O'Neill, Polina Rozenshtein, Ryuichi Kiryo, Motoko Kubota, Danushka Bollegala)
语言模型
两篇某机构的论文探讨了语言模型,这种模型在很大程度上促成了自然语言处理模型近期取得的成功。
- 语言模型需要多少预训练数据来学习句法? (Laura Perez-Mayos, Miguel Ballesteros, Leo Wanner)
- 使用最优传输作为微调多语言上下文嵌入的对齐目标 (Sawsan Alqahtani, Garima Lalwani, Yi Zhang, Salvatore Romeo, Saab Mansour)
机器翻译
Alexa的研究人员结合了数据混合和弹性权重巩固技术,以改进机器翻译模型对新任务的适应性。
- 改进神经机器翻译多领域自适应的质量权衡 (Eva Hasler, Tobias Domhan, Jonay Trenous, Ke Tran, Bill Byrne, Felix Hieber)
释义生成
释义生成可以改变句子的表面形式,同时保留其语义内容,因此有助于为其他自然语言处理任务扩充训练数据。
- 学习选择性学习:弱监督的释义生成 (Kaize Ding, Dingcheng Li, Alexander Hanbo Li, Xing Fan, Chenlei (Edward) Guo, Yang Liu, Huan Liu)
自学习
自学习是利用隐式反馈信号自动改进机器学习模型,无需人工干预。
- 一个可扩展的框架:利用隐式用户反馈改进大规模对话式AI系统中的自然语言理解 (Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee, Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya)
打断对话式AI代理以重新表述请求提供了一种隐式反馈信号,可用于自动标记训练数据,这有助于改进底层机器学习模型。
- 上下文重述检测:减少对话系统中的摩擦 (Zhuoyi Wang, Saurabh Gupta, Jie Hao, Xing Fan, Dingcheng Li, Alexander Hanbo Li, Chenlei (Edward) Guo)
文本摘要
文本摘要是自然语言处理中一个被广泛研究的问题,某云服务的一篇新论文探讨了它在对话语境中呈现的特定问题。
- 对话摘要的技巧集锦 (Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown)FINISHED