ICML 2024 某机构论文速览

5 阅读5分钟

机器学习

ICML 2024 某机构论文速览

学习算法和强化学习是本次关注的焦点,同时,与大语言模型(LLM)相关的研究——例如持续学习、幻觉缓解和隐私等主题——也依然占据了重要位置。

会议:ICML 2024

某机构在国际机器学习大会(ICML)上发表的论文,如同大会整体趋势一样,偏向理论性。尽管一些论文涉及对某机构至关重要的应用,如异常检测和自动语音识别,但大多数论文关注的是与机器学习相关的更普遍的主题,例如负责任的人工智能和迁移学习。其中,学习算法、强化学习和隐私保护成为特别受关注的领域。

主动学习

  • 通过近似损失采样理解训练加速
    • Rudrajit Das, Xi Chen, Bertram Ieong, Parikshit Bansal, Sujay Sanghavi

异常检测

  • 基于置信序列的在线自适应异常阈值设定
    • Sophia Sun, Abishek Sankararaman, Balakrishnan (Murali) Narayanaswamy
    • 内容简述:该论文提出了一种使异常检测阈值适应分布漂移的方法。在实验中,研究人员将信号建模为来自MNIST数据集的手绘数字序列,并将分布漂移建模为从数字0到数字1的变化。异常则被建模为0或1以外的数字。

自动语音识别

  • 面向交互式口语对话系统的高效自学习框架
    • Hitesh Tulsiani, David M. Chan, Shalini Ghosh, Garima Lalwani, Prabhat Pandey, Ankish Bansal, Sri Garimella, Ariya Rastrow, Björn Hoffmeister

因果推断

  • 多重稳健的因果变化归因
    • Victor Quintas, Taha Bahadori, Eduardo Santiago, Jeff Mu, Dominik Janzing, David E. Heckerman

代码补全

  • REPOFORMER:面向仓库级代码补全的选择性检索
    • Di Wu, Wasi Ahmad, Dejiao Zhang, Murali Krishna Ramanathan, Xiaofei Ma

持续学习

  • MemoryLLM:迈向可自我更新的大型语言模型
    • Yu Wang, Yifan Gao, Xiusi Chen, Haoming Jiang, Shiyang Li, Jingfeng Yang, Qingyu Yin, Zheng Li, Xian Li, Bing Yin, Jingbo Shang, Julian McAuley

对比学习

  • EMC2:用于对比学习的高效MCMC负采样及其全局收敛性
    • Chung Yiu Yau, Hoi-To Wai, Parameswaran Raman, Soumajyoti Sarkar, Mingyi Hong

数据准备

  • 更少的截断能改进语言建模
    • Hantian Ding, Zijian Wang, Giovanni Paolini, Varun Kumar, Anoop Deoras, Dan Roth, Stefano Soatto

可解释人工智能

  • 用分布价值解释概率模型
    • Luca Franceschi, Michele Donini, Cédric Archambeau, Matthias Seeger
    • 内容简述:诸如Shapley值分析等博弈论方法在可解释AI中,通过比较有无特定输入特征时黑箱模型的输出。这类方法通常对标量值(顶部)进行操作,从而丢弃了概率模型所捕获的信息。该论文将博弈论方法推广到具有分布输出的模型(底部)。

幻觉缓解

  • 大语言模型置信度评分的多校准
    • Gianluca Detommaso, Martin Bertran Lopez, Riccardo Fogliato, Aaron Roth

学习算法

  • MADA:通过超梯度下降的元自适应优化器
    • Kaan Ozkara, Can Karakus, Parameswaran Raman, Mingyi Hong, Shoham Sabach, Branislav Kveton, Volkan Cevher
  • 用于微调语言模型的方差缩减零阶方法
    • Tanmay Gautam, Youngsuk Park, Hao Zhou, Parameswaran Raman, Wooseok Ha

大语言模型解码

  • 用于单上下文大批量采样的分叉注意力机制
    • Ben Athiwaratkun, Sujan Gonugondla, Sanjay Krishna Gouda, Hantian Ding, Qing Sun, Jun Wang, Jiacheng Guo, Liangfu Chen, Haifeng Qian, Parminder Bhatia, Ramesh Nallapati, Sudipta Sengupta, Bing Xiang

模型压缩

  • COLLAGE:面向大语言模型训练的轻量级低精度策略
    • Tao Yu, Gaurav Gupta, Karthick Gopalswamy, Amith Mamidala, Hao Zhou, Jeffrey Huynh, Youngsuk Park, Ron Diamant, Anoop Deoras, Luke Huan

隐私保护

  • 基础模型的差分隐私偏置项微调
    • Zhiqi Bu, Yu-Xiang Wang, Sheng Zha, George Karypis
    • 内容简述:普通(黑色)和差分隐私(黑色和红色)算法的反向传播计算图。该论文表明,仅微调偏置项(右下)比同时微调偏置项和权重(左侧和右上)要简单得多,能在保持准确性的同时,使训练速度提高2到30倍。
  • 基于分位数回归的扩散模型成员推断攻击
    • Shuai Tang, Zhiwei Steven Wu, Sergul Aydore, Michael Kearns, Aaron Roth

强化学习

  • Actor-Critic多目标强化学习的有限时间收敛性与样本复杂度
    • Tianchen Zhou, Fnu Hairi, Haibo Yang, Jia (Kevin) Liu, Tian Tong, Fan Yang, Michinari Momma, Yan Gao
  • 在函数空间中学习目标网络
    • Kavosh Asadi, Yao Liu, Shoham Sabach, Ming Yin, Rasool Fakoor
    • 内容简述:大多数强化学习算法都涉及一个函数(v),用于预测智能体在特定状态下采取特定行动的价值。通常,该价值函数由两个神经网络(θ 和 w)近似,一个建模当前的价值估计,另一个根据新的交互进行更新。通常情况下,强化学习损失函数旨在协调两个模型的参数值。但该论文表明,在函数空间(左)中协调模型并不意味着在参数空间(右)中协调它们。实验证明,放弃参数值等价的要求可以提高强化学习任务的性能。
  • 具有聚合bandit反馈的线性MDP的近最优遗憾值
    • Asaf Cassel, Haipeng Luo, Dmitry Sotnikov, Aviv Rosenberg

负责任的人工智能

  • 在潜在空间中发现偏差:一种无监督的去偏差方法
    • Dyah Adila, Shuai Zhang, Boran Han, Bernie Wang

检索增强生成

  • 通过任务特定考试生成实现检索增强语言模型的自动化评估
    • Gauthier Guinet, Behrooz Omidvar-Tehrani, Anoop Deoras, Laurent Callot

鲁棒学习

  • 具有超额风险的鲁棒多任务学习
    • Yifei He, Shiji Zhou, Guojun Zhang, Hyokun Yun, Yi Xu, Belinda Zeng, Trishul Chilimbi, Han Zhao

科学机器学习

  • 利用不确定性量化来表征和改进偏微分方程的领域外学习
    • S. Chandra Mouli, Danielle Maddix Robinson, Shima Alizadeh, Gaurav Gupta, Andrew Stuart, Michael Mahoney, Bernie Wang

迁移学习

  • 将知识从大型基础模型迁移到小型下游模型
    • Shikai Qiu, Boran Han, Danielle Maddix Robinson, Shuai Zhang, Bernie Wang, Andrew Wilson

研究领域 机器学习

标签 ICML | 强化学习 | 学习算法 | 大语言模型(LLM) | 幻觉FINISHED