首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Q同学
掘友等级
学生
研究生在读,个人主页:https://jiexingqi.github.io/
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1.7K
文章 1.6K
沸点 47
赞
1.7K
返回
|
搜索文章
赞
文章( 1.6K )
沸点( 47 )
ChatGPT使用限额记录与插件统计
昨晚使用ChatGPT发现一直报错,出现以下报错: Hmm...something seems to have gone wrong.; 消息流中的错误; 无论怎么试都无法继续使用。后续检索
Meta超级智能Lab提出Early Experience增强Agent训练
摘要 本文提出 Early Experience(早期经验) 训练范式,使语言智能体在无奖励环境中也能从自身行为后果中学习,突破传统依赖专家示范(SFT)或依赖奖励的强化学习(RL)的局限。具体设计了
阿里WebDancer:自主信息搜索Agent
摘要 随着大语言模型(LLMs)和大推理模型(LRMs)的能力不断提升,构建具备长期任务规划与复杂信息检索能力的智能体Agent成为关键研究方向。阿里通义实验室提出WebDancer——一套从数据构建
Kimi-K2论文解读
摘要 Kimi在近期发布了最大规模开源模型K2,其为MOE架构,包含1.04T参数,32B激活,。K2 重点强调了其大规模的智能体(agentic)数据合成流水线和联合强化学习方法,模型通过与真实和合
SciMaster:无需微调,在人类最后考试上刷新 SOTA
摘要 随着 AI Agent的发展,人们期待其在科学发现中发挥关键作用。本文提出 X-Master,一种工具增强型通用推理Agent(tool-augmented reasoning agent) ,
TORL:工具集成强化学习,让大语言模型学会用代码解题
近年来,大语言模型(LLMs)在推理能力上取得突破,但在精确计算和复杂逻辑任务中仍受限。本文提出 TORL(Tool-Integrated Reinforcement Learning),一个可
Qwen3开源最新Embedding模型
Qwen3-Embedding 是构建于 Qwen3 基础模型上的新一代文本嵌入与重排序模型系列,显著提升了多语言理解、代码检索与复杂指令任务中的表现。该系列模型覆盖三个参数规模(0.6B、4B
仅用一条无标签数据,如何让大模型推理能力飙升?——One-shot Entropy Minimization 论文分享
导语 论文标题:One-shot Entropy Minimization 论文链接:https://arxiv.org/abs/2505.20282 1 引言 大语言模型(LLMs)的推理能力主要依
在RTX5060Ti上进行Qwen3-4B的GRPO强化微调
导语 最近赶上618活动,将家里的RTX 4060显卡升级为了RTX 5060Ti 16GB版本,显存翻了一番,可以进行一些LLM微调实验了,本篇博客记录使用unsloth框架在RTX 5060Ti
Qwen3技术报告笔记
昨晚Qwen3发布了完整的技术报告,介绍了最新的 Qwen3 系列模型,包含稠密架构和 MoE 架构,参数规模从 0.6B 到 235B。Qwen3 将“思考模式”(用于复杂、多步推理)和“非思
下一页
个人成就
优秀创作者
文章被点赞
2,193
文章被阅读
414,998
掘力值
11,242
关注了
33
关注者
242
收藏集
1
关注标签
12
加入于
2021-12-01