首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Q同学
掘友等级
学生
研究生在读,个人主页:https://jiexingqi.github.io/
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1.7K
文章 1.6K
沸点 46
赞
1.7K
返回
|
搜索文章
赞
文章( 1.6K )
沸点( 46 )
阿里WebDancer:自主信息搜索Agent
摘要 随着大语言模型(LLMs)和大推理模型(LRMs)的能力不断提升,构建具备长期任务规划与复杂信息检索能力的智能体Agent成为关键研究方向。阿里通义实验室提出WebDancer——一套从数据构建
Kimi-K2论文解读
摘要 Kimi在近期发布了最大规模开源模型K2,其为MOE架构,包含1.04T参数,32B激活,。K2 重点强调了其大规模的智能体(agentic)数据合成流水线和联合强化学习方法,模型通过与真实和合
SciMaster:无需微调,在人类最后考试上刷新 SOTA
摘要 随着 AI Agent的发展,人们期待其在科学发现中发挥关键作用。本文提出 X-Master,一种工具增强型通用推理Agent(tool-augmented reasoning agent) ,
TORL:工具集成强化学习,让大语言模型学会用代码解题
近年来,大语言模型(LLMs)在推理能力上取得突破,但在精确计算和复杂逻辑任务中仍受限。本文提出 TORL(Tool-Integrated Reinforcement Learning),一个可
Qwen3开源最新Embedding模型
Qwen3-Embedding 是构建于 Qwen3 基础模型上的新一代文本嵌入与重排序模型系列,显著提升了多语言理解、代码检索与复杂指令任务中的表现。该系列模型覆盖三个参数规模(0.6B、4B
仅用一条无标签数据,如何让大模型推理能力飙升?——One-shot Entropy Minimization 论文分享
导语 论文标题:One-shot Entropy Minimization 论文链接:https://arxiv.org/abs/2505.20282 1 引言 大语言模型(LLMs)的推理能力主要依
在RTX5060Ti上进行Qwen3-4B的GRPO强化微调
导语 最近赶上618活动,将家里的RTX 4060显卡升级为了RTX 5060Ti 16GB版本,显存翻了一番,可以进行一些LLM微调实验了,本篇博客记录使用unsloth框架在RTX 5060Ti
Qwen3技术报告笔记
昨晚Qwen3发布了完整的技术报告,介绍了最新的 Qwen3 系列模型,包含稠密架构和 MoE 架构,参数规模从 0.6B 到 235B。Qwen3 将“思考模式”(用于复杂、多步推理)和“非思
字节ReTool:大模型也要学会善于利用工具
尽管强化学习训练的推理模型在纯文本推理任务中表现突出,但在需要精确计算或符号操作的结构化问题上仍显不足。为此,本文提出 ReTool 框架,通过将实时代码执行与自然语言推理交叉集成,并采用结果驱动的强
OpenAI发布o3和o4-mini模型:全面工具访问的最强大模型
导语 几天前,OpenAI 发布了最新的o3和o4-mini模型,这些推理模型能够主动使用和结合ChatGPT内的所有工具(包括网页搜索、上传文件分析、使用Python分析数据、深入推理视觉输入,甚至
下一页
个人成就
优秀创作者
文章被点赞
2,190
文章被阅读
387,598
掘力值
11,148
关注了
32
关注者
238
收藏集
1
关注标签
12
加入于
2021-12-01