机器学习
ICML 2024 某机构论文速览
学习算法和强化学习是本次关注的焦点,同时,与大语言模型(LLM)相关的研究——例如持续学习、幻觉缓解和隐私等主题——也依然占据了重要位置。
会议:ICML 2024
某机构在国际机器学习大会(ICML)上发表的论文,如同大会整体趋势一样,偏向理论性。尽管一些论文涉及对某机构至关重要的应用,如异常检测和自动语音识别,但大多数论文关注的是与机器学习相关的更普遍的主题,例如负责任的人工智能和迁移学习。其中,学习算法、强化学习和隐私保护成为特别受关注的领域。
主动学习
- 通过近似损失采样理解训练加速
- Rudrajit Das, Xi Chen, Bertram Ieong, Parikshit Bansal, Sujay Sanghavi
异常检测
- 基于置信序列的在线自适应异常阈值设定
- Sophia Sun, Abishek Sankararaman, Balakrishnan (Murali) Narayanaswamy
- 内容简述:该论文提出了一种使异常检测阈值适应分布漂移的方法。在实验中,研究人员将信号建模为来自MNIST数据集的手绘数字序列,并将分布漂移建模为从数字0到数字1的变化。异常则被建模为0或1以外的数字。
自动语音识别
- 面向交互式口语对话系统的高效自学习框架
- Hitesh Tulsiani, David M. Chan, Shalini Ghosh, Garima Lalwani, Prabhat Pandey, Ankish Bansal, Sri Garimella, Ariya Rastrow, Björn Hoffmeister
因果推断
- 多重稳健的因果变化归因
- Victor Quintas, Taha Bahadori, Eduardo Santiago, Jeff Mu, Dominik Janzing, David E. Heckerman
代码补全
- REPOFORMER:面向仓库级代码补全的选择性检索
- Di Wu, Wasi Ahmad, Dejiao Zhang, Murali Krishna Ramanathan, Xiaofei Ma
持续学习
- MemoryLLM:迈向可自我更新的大型语言模型
- Yu Wang, Yifan Gao, Xiusi Chen, Haoming Jiang, Shiyang Li, Jingfeng Yang, Qingyu Yin, Zheng Li, Xian Li, Bing Yin, Jingbo Shang, Julian McAuley
对比学习
- EMC2:用于对比学习的高效MCMC负采样及其全局收敛性
- Chung Yiu Yau, Hoi-To Wai, Parameswaran Raman, Soumajyoti Sarkar, Mingyi Hong
数据准备
- 更少的截断能改进语言建模
- Hantian Ding, Zijian Wang, Giovanni Paolini, Varun Kumar, Anoop Deoras, Dan Roth, Stefano Soatto
可解释人工智能
- 用分布价值解释概率模型
- Luca Franceschi, Michele Donini, Cédric Archambeau, Matthias Seeger
- 内容简述:诸如Shapley值分析等博弈论方法在可解释AI中,通过比较有无特定输入特征时黑箱模型的输出。这类方法通常对标量值(顶部)进行操作,从而丢弃了概率模型所捕获的信息。该论文将博弈论方法推广到具有分布输出的模型(底部)。
幻觉缓解
- 大语言模型置信度评分的多校准
- Gianluca Detommaso, Martin Bertran Lopez, Riccardo Fogliato, Aaron Roth
学习算法
- MADA:通过超梯度下降的元自适应优化器
- Kaan Ozkara, Can Karakus, Parameswaran Raman, Mingyi Hong, Shoham Sabach, Branislav Kveton, Volkan Cevher
- 用于微调语言模型的方差缩减零阶方法
- Tanmay Gautam, Youngsuk Park, Hao Zhou, Parameswaran Raman, Wooseok Ha
大语言模型解码
- 用于单上下文大批量采样的分叉注意力机制
- Ben Athiwaratkun, Sujan Gonugondla, Sanjay Krishna Gouda, Hantian Ding, Qing Sun, Jun Wang, Jiacheng Guo, Liangfu Chen, Haifeng Qian, Parminder Bhatia, Ramesh Nallapati, Sudipta Sengupta, Bing Xiang
模型压缩
- COLLAGE:面向大语言模型训练的轻量级低精度策略
- Tao Yu, Gaurav Gupta, Karthick Gopalswamy, Amith Mamidala, Hao Zhou, Jeffrey Huynh, Youngsuk Park, Ron Diamant, Anoop Deoras, Luke Huan
隐私保护
- 基础模型的差分隐私偏置项微调
- Zhiqi Bu, Yu-Xiang Wang, Sheng Zha, George Karypis
- 内容简述:普通(黑色)和差分隐私(黑色和红色)算法的反向传播计算图。该论文表明,仅微调偏置项(右下)比同时微调偏置项和权重(左侧和右上)要简单得多,能在保持准确性的同时,使训练速度提高2到30倍。
- 基于分位数回归的扩散模型成员推断攻击
- Shuai Tang, Zhiwei Steven Wu, Sergul Aydore, Michael Kearns, Aaron Roth
强化学习
- Actor-Critic多目标强化学习的有限时间收敛性与样本复杂度
- Tianchen Zhou, Fnu Hairi, Haibo Yang, Jia (Kevin) Liu, Tian Tong, Fan Yang, Michinari Momma, Yan Gao
- 在函数空间中学习目标网络
- Kavosh Asadi, Yao Liu, Shoham Sabach, Ming Yin, Rasool Fakoor
- 内容简述:大多数强化学习算法都涉及一个函数(v),用于预测智能体在特定状态下采取特定行动的价值。通常,该价值函数由两个神经网络(θ 和 w)近似,一个建模当前的价值估计,另一个根据新的交互进行更新。通常情况下,强化学习损失函数旨在协调两个模型的参数值。但该论文表明,在函数空间(左)中协调模型并不意味着在参数空间(右)中协调它们。实验证明,放弃参数值等价的要求可以提高强化学习任务的性能。
- 具有聚合bandit反馈的线性MDP的近最优遗憾值
- Asaf Cassel, Haipeng Luo, Dmitry Sotnikov, Aviv Rosenberg
负责任的人工智能
- 在潜在空间中发现偏差:一种无监督的去偏差方法
- Dyah Adila, Shuai Zhang, Boran Han, Bernie Wang
检索增强生成
- 通过任务特定考试生成实现检索增强语言模型的自动化评估
- Gauthier Guinet, Behrooz Omidvar-Tehrani, Anoop Deoras, Laurent Callot
鲁棒学习
- 具有超额风险的鲁棒多任务学习
- Yifei He, Shiji Zhou, Guojun Zhang, Hyokun Yun, Yi Xu, Belinda Zeng, Trishul Chilimbi, Han Zhao
科学机器学习
- 利用不确定性量化来表征和改进偏微分方程的领域外学习
- S. Chandra Mouli, Danielle Maddix Robinson, Shima Alizadeh, Gaurav Gupta, Andrew Stuart, Michael Mahoney, Bernie Wang
迁移学习
- 将知识从大型基础模型迁移到小型下游模型
- Shikai Qiu, Boran Han, Danielle Maddix Robinson, Shuai Zhang, Bernie Wang, Andrew Wilson
研究领域 机器学习
标签 ICML | 强化学习 | 学习算法 | 大语言模型(LLM) | 幻觉FINISHED