首页
AI Coding
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
fangpin
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
fangpin
1天前
关注
AI Agent 设计原则与最佳实践
本文系统阐述了现代 AI Agent 的核心设计原则与工程实践。围绕“透明、可控、一致”三大准则,深入探讨了 Agent 在交互体验、行为可预测性与用户信任方面的关键设计方...
0
评论
分享
fangpin
18天前
关注
强化学习从入门到放弃 —— 跟着 OpenAI 学强化学习
核心概念解析 简而言之,强化学习是关于智能体(agent)以及它们如何通过试错来学习的研究。它将这样一种理念形式化:对智能体的行为进行奖励或惩罚,会使它在未来更有可能重复或...
0
评论
分享
fangpin
19天前
关注
从零实现 REINFORCE/GRPO —— 大模型推理强化微调实践
引言 你是否也遇到过:模型“会思考”,但少数题正确,格式还常常不合规?我在 Qwen/Qwen2.5-Math-1.5B 上亲历这一痛点——zero-shot 在 GSM8...
0
评论
分享
fangpin
19天前
关注
手撸大模型的分布式训练:深刻理解大模型训练的“起飞”原理
单卡不够?内存爆炸?训练太慢? 在大型语言模型(LLM)的训练过程中,单设备算力和内存往往成为性能瓶颈。如何高效地利用多GPU甚至多节点资源进行分布式训练,是每个LLM研究...
0
评论
分享
fangpin
19天前
关注
从0到1:揭秘LLM预训练前的海量数据清洗全流程
本文将深入剖析 llm-from-scratch 仓库中 alignment 模块,展示 SFT 的完整流程。 引言 大语言推理模型常见的两个痛点:一是“答不对”,二是“答...
0
评论
分享
fangpin
20天前
关注
从 1.56% 到 62.9%:SFT 推理微调优化实战
本文将深入剖析 llm-from-scratch 仓库中 alignment 模块,展示 SFT 的完整流程。 引言 大语言推理模型常见的两个痛点:一是“答不对”,二是“答...
0
评论
分享
fangpin
20天前
关注
从 0 搭建 LLM 不再难!这个 PyTorch 项目帮你吃透大模型底层逻辑
如果你曾想深入理解大语言模型(LLM)的 “五脏六腑”,却被框架封装的黑盒接口、复杂的源码结构劝退;如果你希望亲手实现 Transformer 的每一个组件,而非单纯调用t...
0
评论
分享
fangpin
1年前
关注
leveldb 源码解读 一
LevelDB is a fast key-value storage library that provides an ordered mapping from keys...
0
评论
分享
个人成就
文章被阅读
209
掘力值
71
关注了
0
关注者
0
收藏集
0
关注标签
2
加入于
2024-07-10