首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
搞定AI
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
KnowRL:基于知识的强化学习
在大型语言模型(LLMs)的实际应用中,幻觉问题已成为阻碍其可靠性的核心挑战。当模型在处理复杂推理任务时,即使输入信息完整,也可能输出与事实相悖的内容,导致错误信息的传播。近期发表的论文《KnowRL
仅靠 “自信” 就能变强?这篇论文颠覆大模型微调认知
在大模型微调领域,通常需要大量标注数据或复杂的人工反馈机制。但最近一篇论文《CONFIDENCE IS ALL YOU NEED: FEW-SHOT RL FINE-TUNING OF LANGUAG
论文解读:The Illusion of Thinking
大推理模型的 "思维幻觉":从问题复杂度视角解析推理能力的边界 一、引言:当语言模型开始 "思考" 近年来,随着 OpenAI o1、Claude 3.7 Sonnet 等大推理模型(LRMs)的兴起
大模型推理能力评估:拆解知识与推理的关键维度
在大语言模型(LLMs)技术蓬勃发展的当下,诸如 OpenAI 的 o1/3 和 DeepSeek-R1 等推理增强型模型,在处理复杂任务时展现出了卓越的性能。然而,这些模型在推理过程中,知识与逻辑的
【论文解读】Table-R1:用推理时间扩展让 70 亿参数模型超越 GPT-4.1 的表格推理能力
探秘表格推理:从数据到模型,Table-R1 如何让小模型玩转复杂表格? 一、为什么需要专门的表格推理数据集? 表格推理和纯文本推理有啥不一样?
【大模型论文】S1: Simple Test-time Scaling|
用最少的数据,做最强的推理! 今天给大家分享一个有意思的研究 ——如何用 1000 个样本就让语言模型学会「深度思考」。 先问大家一个问题:如果让 AI 解数学竞赛题,你觉得需要多少训练数据?
个人成就
文章被阅读
74
掘力值
60
关注了
0
关注者
0
收藏集
0
关注标签
0
加入于
2025-06-02