首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Q同学
掘友等级
学生
研究生在读,个人主页:https://jiexingqi.github.io/
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1.7K
文章 1.6K
沸点 42
赞
1.7K
返回
|
搜索文章
最新
热门
在RTX5060Ti上进行Qwen3-4B的GRPO强化微调
导语 最近赶上618活动,将家里的RTX 4060显卡升级为了RTX 5060Ti 16GB版本,显存翻了一番,可以进行一些LLM微调实验了,本篇博客记录使用unsloth框架在RTX 5060Ti
Qwen3技术报告笔记
昨晚Qwen3发布了完整的技术报告,介绍了最新的 Qwen3 系列模型,包含稠密架构和 MoE 架构,参数规模从 0.6B 到 235B。Qwen3 将“思考模式”(用于复杂、多步推理)和“非思
字节ReTool:大模型也要学会善于利用工具
尽管强化学习训练的推理模型在纯文本推理任务中表现突出,但在需要精确计算或符号操作的结构化问题上仍显不足。为此,本文提出 ReTool 框架,通过将实时代码执行与自然语言推理交叉集成,并采用结果驱动的强
OpenAI发布o3和o4-mini模型:全面工具访问的最强大模型
导语 几天前,OpenAI 发布了最新的o3和o4-mini模型,这些推理模型能够主动使用和结合ChatGPT内的所有工具(包括网页搜索、上传文件分析、使用Python分析数据、深入推理视觉输入,甚至
论文笔记:DAPO——改进的开源GRPO强化学习系统
导语 GRPO是当前LLM强化学习的核心算法,本文作者在实验中发现了原始GRPO的一些不足,进行了几点改进,有效提升了评测性能表现。
mac本地部署Qwq-32b记录
导语 昨天看到阿里开源了Qwq-32b,号称性能可以媲美Deepseek-R1。今天晚上有空就在Mac上折腾了一下,使用ollma进行了部署,效果感觉还不错,特此记录。 环境 硬件 型号:Macboo
一张4060完成一个miniLLM全流程训练(一):预训练
大语言模型的出现引发了全世界对AI的空前关注。本文介绍一个项目MiniMind,主要帮助初学者从零开始亲手训练一个极小的语言模型,而不是仅仅进行推理!文中也给出了笔者自身的实验记录。
论文笔记:Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling
导语 当一个大模型面对给定的算力,是应该更多的用于预训练还是推理?本文尝试回答这个问题。- 会议:Arxiv 2024 - 链接:[[2408.03314] Scaling LLM Test-Time
Open o1模型介绍(Learning to Reason with LLMs)
导语 本文主要整理和翻译自Open AI官网博客内容,用于了解Open AI官方对o1的描述和定位。综合了如下博客: https://openai.com/index/learning-to-reas
论文笔记:Tree of Thoughts: Deliberate Problem Solving with Large Language Models
大模型推理领域的思维链是一个常用的优化技巧,本文将其进行了拓展和一般化,考虑树结构的思维树,在解决复杂推理任务时表现出了远超一般思维链的性能表现。
下一页
个人成就
优秀创作者
文章被点赞
2,184
文章被阅读
363,390
掘力值
10,916
关注了
32
关注者
237
收藏集
1
关注标签
12
加入于
2021-12-01