首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Weekly Papers
叶子的技术碎碎念
创建于2024-02-18
订阅专栏
每周AI论文速递,来源于Huggingface的Daily Papers,选择其中比较热门的论文。
等 32 人订阅
共82篇文章
创建于2024-02-18
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
每周AI论文速递(251027-251031)
Scaling Latent Reasoning via Looped Language Models 通过循环语言模型扩展潜在推理 现代大语言模型主要通过显式文本生成(如思维链 (CoT))来训练其
每周AI论文速递(251020-251024)
A Theoretical Study on Bridging Internal Probability and Self-Consistency for LLM Reasoning 关于桥接大语言模
每周AI论文速递(251013-251017)
QeRL:超越效率——面向大语言模型的量化增强强化学习 QeRL:超越效率——面向大语言模型的量化增强强化学习 我们提出 QeRL,一种面向大语言模型 (LLMs) 的量化增强强化学习框架。尽管强化学
每周AI论文速递(251006-251010)
Less is More: Recursive Reasoning with Tiny Networks 少即是多:微型网络的递归推理 分层推理模型 (HRM) 是一种创新方法,它采用两个小型神经网络
每周AI论文速递(250929-251003)
The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain 龙之雏形:Transfor
每周AI论文速递(250915-250919)
OmniWorld: A Multi-Domain and Multi-Modal Dataset for 4D World Modeling OmniWorld: A Multi-Domain an
每周AI论文速递(250908-250912)
Sharing is Caring: Efficient LM Post-Training with Collective RL Experience Sharing 分享即关怀:通过集体强化学习经验
每周AI论文速递(250901-250905)
A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code A.S.E: 面向 AI 生成代码安全
每周AI论文速递(250825-250829)
InternVL3.5: Advancing Open-Source Multimodal Models in Versatility, Reasoning, and Efficiency Inter
每周AI论文速递(250818-250822)
Intern-S1: A Scientific Multimodal Foundation Model Intern-S1:科学多模态基础模型 近年来,大量开源基础模型不断涌现,在诸多热门领域取得显著
每周AI论文速递(250811-250815)
GLM-4.5: Agentic, Reasoning, and Coding (ARC) Foundation Models GLM-4.5: 智能体、推理与编码(ARC)基础模型 我们推出 GLM
每周AI论文速递(250804-250808)
Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens 大语言模型的思维链推理是海市蜃楼吗?基于数据分布的视角
每周AI论文速递(250728-250801)
Agentic Reinforced Policy Optimization 智能体强化策略优化 具备可验证奖励机制的大规模强化学习(RLVR)已证实其在挖掘大语言模型(LLM)单次推理任务潜力方面的
每周AI论文速递(250721-250725)
GUI-G^2: Gaussian Reward Modeling for GUI Grounding GUI-G^2:基于高斯奖励建模的图形用户界面定位 图形用户界面 (Graphical User
每周AI论文速递(250714-250718)
A Survey of Context Engineering for Large Language Models 大语言模型上下文工程研究综述 大语言模型 (LLM) 的推理性能本质上取决于其所接收
每周AI论文速递(250707-250711)
Scaling RL to Long Videos 将强化学习扩展至长视频处理 我们提出一个端到端框架,通过强化学习将视觉语言模型(VLMs)的推理能力扩展至长视频领域。针对长视频推理的独特挑战,我们
每周AI论文速递(250630-250704)
GLM-4.1V-Thinking: Towards Versatile Multimodal Reasoning with Scalable Reinforcement Learning GLM-4
每周AI论文速递(250623-250627)
Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights 拖放式大语言模型:零样本提示到权重 现代参数高效微调 (Parameter-Efficient Fine
每周AI论文速递(2506216-250620)
MiniMax-M1: Scaling Test-Time Compute Efficiently with Lightning Attention MiniMax-M1:基于闪电注意力的高效推理计算
每周AI论文速递(2506209-250613)
Reinforcement Pre-Training 强化预训练 本研究提出强化预训练 (RPT) 作为大语言模型和强化学习 (RL) 的新型扩展方法。具体而言,我们将下一 token 预测重构为基于
下一页