EMNLP 2024某机构50余篇论文技术速览

4 阅读9分钟

某机构在EMNLP 2024上发表50余篇论文的快速指南

大语言模型在研究领域中占据主导地位,既作为研究课题本身,也作为研究某机构特别感兴趣主题(如语音、推荐系统和信息检索)的工具。

会议:EMNLP 2024

大语言模型已主导自然语言处理领域,因此某机构科学家在今年实证自然语言处理方法会议(EMNLP)上展示的研究也主要由它们主导,这并不意外。LLM训练是某机构论文数量最多的主题,其次是缓解LLM输出中错误信息(包括但不限于幻觉)的策略。同时,多篇论文将LLM应用于某机构传统感兴趣的主题,如语音、推荐系统和信息检索。(标有星号的论文被接收至《EMNLP Findings》。)

AI代理

  • MARCO:多智能体实时聊天编排 (Anubhav Shrimal, Shervin Malmasi, Kriti Biswas, Swarnalatha Raghuraman, Anish Nediyanchath, Yi Zhang, Promod Yenigalla)

代码生成

  • CodeFort:代码生成模型的鲁棒训练 (Yuhao Zhang, Shiqi Wang, Haifeng Qian, Zijian Wang, Mingyue Shang, Linbo Liu, Sanjay Krishna Gouda, Baishakhi Ray, Murali Krishna Ramanathan, Xiaofei Ma, Anoop Deoras)
  • 苏格拉底式人类反馈:LLM代码生成的专家引导策略 (Subramanian Chidambaram, Erran Li, Min Bai, Xiaopeng LI, Kaixiang Lin, Xiong Zhou, Alex C. Williams)
  • 结构化对象语言建模:通过自监督去噪生成符合复杂模式的原生结构化对象 (Amir Tavanaei, Kee Kiat Koo, Hayreddin Ceker, Shaobai Jiang, Qi Li, Julien Han, Karim Bouyarmane)

对比解码

  • 通过外推巨大假设语言模型的概率来解释和改进对比解码 (Haw-Shiuan Chang, Nanyun Peng, Mohit Bansal, Anil Ramakrishna, Tagyoung Chung)

对于一个带有线索的简单问题,对比解码可能表现出“明显的盲目性”(例如,为不常见的答案如“无脊椎动物”分配比最明显答案“蜜蜂”更高的概率)。相反,“通过外推巨大假设语言模型的概率来解释和改进对比解码”中提出的渐近概率解码,通过利用多个不同规模语言模型的概率,正确地将最高概率分配给“蜜蜂”。

数据集成

  • ASTRA:使用机器翻译的自动模式匹配 (Tarang Chugh, Deepak Zambre)
  • 从自然语言解释中学习以实现可泛化的实体匹配 (Somin Wadhwa, Adit Krishnan, Runhui Wang, Byron C. Wallace, Chris (Luyang) Kong)
  • 在地理空间网络上预训练和微调语言模型以实现精确地址匹配 (Saket Maheshwary, Arpan Paul, Saurabh Sohoney)
  • 面向电商应用的检索增强拼写纠正 (Xuan Guo, Rohit Patki, Dante Everaert, Christopher Potts)

数据集蒸馏

  • 通过语言模型嵌入进行文本数据集蒸馏 (Yefan Tao, Chris (Luyang) Kong, Andrey Kan, Laurent Callot)

“通过语言模型嵌入进行文本数据集蒸馏”中提出的DaLLME框架,首先使用语言模型将原始文本数据转换为嵌入向量。然后,通过旨在封装最大信息内容的过程,在嵌入空间中导出一组蒸馏向量。最后,vec2text模型将这些蒸馏向量转换回文本形式。

文档理解

  • DocKD:面向开放世界文档理解模型的LLM知识蒸馏 (Sungnyun Kim, Haofu Liao, Srikar Appalaraju, Peng Tang, Zhuowen Tu, Ravi Kumar Satzoda, R. Manmatha, Vijay Mahadevan, Stefano Soatto)

信息检索

  • 评估部分标注对信息检索的D-MERIT (Royi Rassin, Yaron Fairstein, Oren Kalinsky, Guy Kushilevitz, Nachshon Cohen, Alexander Libov, Yoav Goldberg)
  • 识别高考虑度的电商搜索查询 (Zhiyu Chen, Jason Choi, Besnik Fetahu, Shervin Malmasi)
  • 学习何时检索、重写什么以及如何在对话式问答中响应 (Nirmal Roy, Leonardo Ribeiro, Rexhina Blloshmi, Kevin Small)

自然语言理解

  • LLM时代的意图检测 (Gaurav Arora, Shreya Jain, Srujana Merugu)

“LLM时代的意图检测”提出了一种基于LLM的自适应上下文学习和思维链意图检测方法。

  • 预测极短文档中的实体显著性 (Ben Bullough, Harrison Lundberg, Chen Hu, Weihang Xiao)

LLM评估

  • AXCEL:使用LLM的自动化可解释一致性评估 (P Aditya Sreekar, Sahil Verma, Suransh Chopra, Sarik Ghazarian, Abhishek Persad, Narayanan Sadagopan)
  • 仅用少量观测值进行精确模型基准测试 (Riccardo Fogliato, Pratik Patil, Nil-Jana Akpinar, Mathew Monfort)

LLM微调

  • AdaZeta:用于内存高效大语言模型微调的自适应零阶张量列适配 (Yifan Yang, Kai Zhen, Ershad Banijamali, Thanasis Mouchtaris, Zheng Zhang)
  • RoseLoRA:用于知识编辑和微调的预训练语言模型的行列稀疏低秩适配 (Haoyu Wang, Tianci Liu, Ruirui Li, Monica Cheng, Tuo Zhao, Jing Gao)

“RoseLoRA:用于知识编辑和微调的预训练语言模型的行列稀疏低秩适配”中提出的行列稀疏低秩适配框架。

用于语音的LLM

  • 适合语音的指令调优语言模型 (Hyundong Cho, Nicolaas Jedema, Leonardo Ribeiro, Karishma Sharma, Pedro Szekely, Alessandro Moschitti, Ruben Janssen, Jonathan May)

LLM错误信息缓解

  • ECON:关于证据冲突的检测与解决 (Cheng Jiayang, Chunkit Chan, Qianqian Zhuang, Lin Qiu, Tianhang Zhang, Tengxiao Liu, Yangqiu Song, Yue Zhang, Pengfei Liu, Zheng Zhang)
  • 用于知识图谱 grounded 对话生成的生成式子图检索 (Jinyoung Park, Minseok Joo, Joo-Kyung Kim, Hyunwoo J. Kim)
  • HalluMeasure:使用思维链推理的细粒度幻觉测量 (Shayan Ali Akbar, Md Mosharaf Hossain, Tess Wood, Si-Chi Chin, Erica Salinas, Victor Alvarez, Erwin Cornejo)
  • 以知识为中心的幻觉检测 (Xiangkun Hu, Dongyu Ru, Lin Qiu, Qipeng Guo, Tianhang Zhang, Yang Xu, Yun Luo, Pengfei Liu, Zheng Zhang, Yue Zhang)

LLM推理

  • Auto-evolve:通过自推理框架提升大语言模型性能 (Krishna Aswani, Alex Lu, Pranav Patankar, Priya Dhalwani, Iris Tan, Jayant Ganeshmohan, Simon Lacasse)

LLM自我修正

  • 使用DeCRIM进行LLM自我修正:分解、评判与精炼以增强对多约束指令的遵循 (Thomas Palmeira Ferraz, Kartik Mehta, Yu-Hsiang Lin, Haw-Shiuan Chang, Shereen Oraby, Sijia Liu, Vivek Subramanian, Tagyoung Chung, Mohit Bansal, Nanyun Peng)

在“使用DeCRIM进行LLM自我修正”提出的DeCRIM流程中,LLM首先生成对用户请求的响应。然后分解器将请求分解为细粒度约束,评判模型给出响应是否满足这些约束的反馈。如果满足,则输出响应;如果不满足,LLM使用反馈来精炼响应。

LLM训练

  • 链中起舞:调和语言模型中的指令遵循与忠实度 (Zhengxuan Wu, Yuhao Zhang, Peng Qi, Yumo Xu, Rujun Han, Yian Zhang, Jifan Chen, Bonan Min, Zhiheng Huang)
  • DEM:用于混合数据分布训练的分布编辑模型 (Dhananjay Ram, Aditya Rawal, Momchil Hardalov, Nikolaos Pappas, Sheng Zha)

“DEM:用于混合数据分布训练的分布编辑模型”中描述的分布编辑模型(ΘD)是通过在n个单独的数据分布(Di)上微调预训练模型(Θ)并将所得模型与基本的逐元素向量操作相结合而产生的。这里,提取的分布向量(∆ΘDi)乘以权重系数,并将加权和加到基础模型上。

  • 用于语言模型对齐的进化对比蒸馏 (Julian Katz-Samuels, Zheng Li, Hyokun Yun, Priyanka Nigam, Yi Xu, Vaclav Petricek, Bing Yin, Trishul Chilimbi)
  • 跳跃、跳过、跳转到收敛:学习率转换动态以改进大语言模型训练 (Shreyas Subramanian, Vignesh Ganapathiraman, Corey Barrett)
  • 使用迭代训练从成功对话中的相关子目标学习,用于任务导向型对话系统 (Magdalena Kaiser, Patrick Ernst, Gyuri Szarvas)
  • 质量很重要:评估用于工具使用LLM的合成数据 (Shadi Iskander, Nachshon Cohen, Zohar Karnin, Ori Shapira, Sofia Tolmach)

查询自动补全

  • AmazonQAC:大规模、自然主义的查询自动补全数据集 (Dante Everaert, Rohit Patki, Tianqi Zheng, Christopher Potts)
  • DiAL:用于查询自动补全的多样性感知列表排序 (Sonali Singh, Sachin Farfade, Prakash Mandayam Comar)

问答

  • RAG-QA竞技场:评估长形式检索增强型问答的领域鲁棒性 (Rujun Han, Yuhao Zhang, Peng Qi, Yumo Xu, Jenyuan Wang, Lan Liu, William Yang Wang, Bonan Min, Vittorio Castelli)
  • 使用弱监督检索长形式问答的上下文信息 (Philipp Christmann, Svitlana Vakulenko, Ionut Teodor Sorodoc, Bill Byrne, Adrià de Gispert)

推荐系统

  • 用于新闻推荐的高效逐点-配对学习排序 (Nithish Kannen Senthilkumar, Yao Ma, Gerrit van den Burg, Jean Baptiste Faddoul)

GLIMPSE框架示意图。GLIMPSE采用多任务方法,预训练语言模型在相关性预测任务和配对偏好任务上进行微调。推理时,使用相关性预测生成初始逐点排序,然后通过一次或多次使用配对比较的从右到左传递来改进该排序。

  • PEARL:使用LLM智能体通过示例增强和检索进行偏好提取 (Vijit Malik, Akshay Jagatap, Vinayak Puranik, Anirban Majumder)
  • 用于时尚推荐的序列LLM框架 (Han Liu, Xianfeng Tang, Tianlang Chen, Jiapeng Liu, Indu Indu, Henry Peng Zou, Peng Dai, Roberto Fernandez Galan, Mike Porter, Dongmei Jia, Ning Zhang, Lian Xiong)

负责任AI

  • 大语言模型的属性控制微调:以去毒化为例的案例研究 (Tao Meng, Ninareh Mehrabi, Palash Goyal, Anil Ramakrishna, Aram Galstyan, Richard Zemel, Kai-Wei Chang, Rahul Gupta, Charith Peris)
  • FLIRT:上下文反馈循环红队测试 (Ninareh Mehrabi, Palash Goyal, Christophe Dupuy, Qian Hu, Shalini Ghosh, Richard Zemel, Kai-Wei Chang, Aram Galstyan, Rahul Gupta)
  • LLM成员推理的数量级加速 (Rongting Zhang, Martin Bertran Lopez, Aaron Roth)

合成数据生成

  • CorrSynth:一种从LLM生成多样化数据集的关联采样方法 (Suhas Kowshik, Abhishek Divekar, Vijit Malik)

“CorrSynth:一种从LLM生成多样化数据集的关联采样方法”介绍了一种使用示例之间的反相关性而非少样本生成的采样方法。

  • DATA ADVISOR:用于大语言模型安全对齐的动态数据策展 (Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan)
  • 评估高风险领域的差分隐私合成数据生成 (Krithika Ramesh, Nupoor Gandhi, Pulkit Madaan, Lisa Bauer, Charith Peris, Anjalie Field)
  • SYNTHESIZRR:使用检索增强生成多样化数据集 (Abhishek Divekar, Greg Durrett)

“SYNTHESIZRR:使用检索增强生成多样化数据集”中提出过程的抽象描述。内容来源阶段为每个上下文协变量xICL从大型语料库中检索K个唯一文档{r1,...,rK}。任务反转阶段使用参数化的上下文精炼提示Pτ,该提示接受参数Rinv(反转指令)、rk(检索到的文档)和V(yICL)(言语化的目标标签)。一个通才教师LLM自回归地生成一个合成协变量。每个上下文示例因此产生K个唯一的合成示例{x̃1,..., x̃K},这些示例与目标yICL一起包含在数据集中。

文本分类

  • 预训练语言模型的距离感知校准 (Alberto Gasparin, Gianluca Detommaso)
  • 性能引导的LLM知识蒸馏以实现大规模高效文本分类 (Flavio Di Palo, Prateek Singhi, Bilal Fadlallah)
  • 提示调优的多任务分类变换器 (Rajashekar Vasantha, Nhan Nguyen, Yue Zhang)

文本摘要

  • 显著信息提示以引导基于提示的抽象摘要中的内容 (Lei Xu, Asad Karim, Saket Dingliwal, Aparna Elangovan)

研究领域: 对话式AI

标签: EMNLP, 大语言模型, 文本摘要, 文本分类, 合成数据生成, 自然语言理解, 文档理解, 代码生成FINISHED