ICML 2025录取率公布,Spotlight论文亮点大公开!

940 阅读9分钟

前言

第42届国际机器学习大会(ICML)将于2025年7月13日至19日在加拿大温哥华举行,近日,ICML 2025公布了论文录用结果。

据统计,本次大会共收到12107篇投稿,较去年增加了28%,共计有3260篇论文被接收,接收率为26.9%。

其中,被选为「Spotlight Poster」的论文有313篇(即所有投稿中排名前2.6%的论文),这些论文代表了程序委员会最为推荐的投稿。

在本次论文评选中,华人学者与华人机构依然表现突出,除了国内知名院校外,一些国内大厂的论文也在评审中获得了亮眼的成绩。

机器学习领域的盛会——ICML

图片

国际机器学习大会 (简称ICML) ,在机器学习领域占据着举足轻重的地位,与NeurIPS、ICLR并称为机器学习的三大顶级会议,同时也是中国计算机学会(CCF)推荐的A类会议。

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

ICML每年都会吸引全球顶尖学者、研究人员以及行业从业者齐聚一堂,共同探讨机器学习领域的前沿研究成果、创新算法以及实际应用案例。

其权威性和影响力不仅体现在会议的高规格上,更在于汇聚了来自世界各地的智慧结晶,为推动机器学习领域的发展起到了关键作用。

从历年的数据来看,ICML的投稿数量呈现出迅猛增长的趋势。

2023年投稿量为6538篇,2024年跃升至9653篇,而到了2025年,有效投稿数量更是高达12107篇,涨幅达28%。这一数据直观地反映出机器学习领域的热度持续攀升,也侧面印证了ICML在全球学术圈中的强大吸引力。

华人学者Spotlight论文精选

在公布的Spotlight论文中,已经可以检索到大量优秀论文,如:

  • Neural Discovery in Mathematics: Do Machines Dream of Colored Planes? (数学中的神经发现:机器会梦见彩色的平面吗?)

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

  • The Number of Trials Matters in Infinite-Horizon General-Utility Markov Decision Processes

    (试验次数在无限时域一般效用马尔可夫决策过程中的重要性)

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

在这些亮眼的Spotlight论文中,华人学者与华人机构的研究成果也同样夺目,他们以独特的视角和卓越的智慧,为机器学习领域注入了新的活力。

下文将聚焦在ICML 2025舞台上的华人之光,深度解析他们论文中的前沿创新与突破性成果。

📚 Mixture of Lookup Experts

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

在ICML 2025 Spotlight中,华为诺亚实验室联合北京大学研究团队带来了一项令人瞩目的技术突破:Mixture-of-Lookup-Experts(MoLE)端侧大模型新架构。

这一创新性架构通过巧妙的设计,成功将内存搬运代价降低了惊人的1000倍,为端侧人工智能的发展开辟了全新道路。

该研究是由北大智能科学与技术学院邓志鸿教授团队与华为诺亚方舟实验室合作完成,第一作者为博士生解世博,通讯作者为华为云首席架构师王云鹤。

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

成果体现了华人学者在模型架构优化与工程落地结合上的领先探索,为机器学习领域的 “高效推理” 难题提供了兼具理论创新与实用价值的解决方案。

图片

对MoE使用了专家参数卸载策略

当大模型追求“更大参数”成为趋势时,MoLE通过“预计算 + 查表”的极简设计,展现了另一种技术路径——用存储换计算,在保证性能的同时大幅降低部署门槛。这一思路或许能为多模态模型、联邦学习等场景提供优化灵感。

📚 Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

在ICML2025的Spotlight论文中,清华大学交叉信息学院的ISRLab和星动纪元的高分作品AIGC生成式机器人大模型VPP引发关注。

该研究首次将视频扩散模型(VDM)的预测能力引入机器人控制,通过捕捉“未来视觉表征”,让机器人具备“预见动作后果”的能力,为通用机器人策略开辟了新路径。

在人工智能领域存在着这样的难题,即高级推理功能反而容易(例如围棋、数学题),下层的感知和执行反而困难(例如各种家务)。

VLM更擅长高层级的推理,而AIGC生成式模型更擅长细节处理。VPP基于AIGC视频扩散模型而来,在底层的感知和控制有独特的优势。

图片

VPP两阶段的学习框架

如图所示,VPP分成两阶段的学习框架,最终实现基于文本指令的视频动作生成。 第一阶段利用视频扩散模型学习预测性视觉表征;第二阶段通过Video Former和DiT扩散策略进行动作学习。

图片

VPP模型在真实世界的灵巧操作

正如研究结果表明,视频预测模型生成的表征对机器人策略学习具有极高价值,在模拟和真实任务中均实现了持续改进。

在真实世界的测试中,VPP模型展现出了惊人的多任务学习能力和泛化能力。

VPP能使用一个网络完成100+种复杂灵巧操作任务,例如抓取、放置、堆叠、倒水、工具使用等,在双臂人形机器人平台能完成50+种复杂灵巧操作任务。

未来,团队计划进一步压缩模型体积,探索无标注数据的自监督训练,并扩展至移动机器人导航等场景。 随着VDM与机器人技术的深度融合,“预见未来”的智能体或将重新定义人机协作的边界。📚 ShadowKV: KV Cache in Shadows for High-Throughput Long-Context LLM Inference图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

在ICML 2025的Spotlight论文中,字节跳动与卡内基梅隆大学(CMU)联合团队针对长上下文大模型推理的性能瓶颈,提出了一种兼具显存效率与高吞吐的创新方案。

该研究由国内大厂字节跳动AI Lab与CMU计算机科学系联合完成,第一作者孙翰实(Hanshi Sun)为CMU博士生,通讯作者陈贝迪(Beidi Chen)为CMU助理教授。 成果体现了华人团队在系统优化与大模型结合领域的领先探索。

图片 来源:全球科技情报服务平台AMiner:www.aminer.cn/open/schola…

这一研究通过“用低秩压缩键缓存,让值缓存退居幕后”的巧妙设计,为万亿token时代的LLM部署提供了新范式。

图片

显示预RoPE键缓存压缩6倍以上

不影响针检索任务准确率

且KV缓存高命中率使解码计算和数据移动

减少超60%

ShadowKV通过低秩键缓存压缩与值缓存卸载的协同设计,破解长上下文LLM推理的显存与延迟困局。

团队利用SVD压缩技术将键缓存压缩6倍以上并驻留GPU,同时将值缓存卸载至CPU,通过CUDA多流重叠键重建与值读取,使PCIe传输延迟降低 50%。

图片

在A100上的生成吞吐量(tokens/秒)

在性能上,ShadowKV使Llama-3.1-8B处理122K上下文时的批量大小从4提升至24,生成吞吐量提升3.04倍,且精度与全注意力模型一致。

面对1M token的极端场景,其在Needle In A Haystack任务中的检索精度仅比全注意力低2%,远超Quest等基线方法,实现“显存占用减少6倍、吞吐量提升3倍”的双重突破,为长上下文LLM的工业化部署提供了可行路径。

在未来,随着ShadowKV等技术的成熟,显存不再是限制,算力按需分配的高效推理时代正在加速到来。

结语

从 MoLE对混合专家模型的显存革命,到VPP让机器人通过视频扩散“预见未来”,再到 ShadowKV破解长上下文LLM的推理瓶颈,ICML 2025的华人学者成果展现了一个鲜明趋势:AI技术正从单一模型创新,转向“模型-系统-应用”的全链条突破。

这些研究不仅在各自领域刷新性能边界,更共同勾勒出智能系统的未来图。

展望未来,当大模型的“认知能力”与高效系统的“执行能力”深度融合,我们或将见证更多突破:能处理万卷文档的智能助手、在工厂流水线自主规划的机器人、甚至是能根据用户习惯动态优化的个性化AI服务。

而这一切的起点,正是像ICML 2025这些前沿研究中,那些敢于挑战“不可能”的创新思维——它们不仅是学术论文中的公式与图表,更是推动AI从实验室走向真实世界的引擎。

技术的终极价值,永远在于让复杂的世界变得简单可及。当华人学者的智慧照亮这些技术跃迁的关键节点,我们有理由期待,AI赋能人类的下一个里程碑,已在眼前。


这里是AMiner数据平台——全球领先的学术数据挖掘与分析平台,您身边的科研助手,有关学术趋势洞察、学者网络分析问题都可以与我们探讨!

网站链接:www.aminer.cn/open/schola…

或直接关注【AMiner Research】公众号,获取最新的AI前沿研究、行业动态和学者信息!