首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
大模型玩家七七
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
13
文章 12
沸点 1
赞
13
返回
|
搜索文章
大模型玩家七七
1月前
关注
为什么祝福场景里,关系证据比祝福模板重要得多
这是一个被“看起来很合理”的直觉坑住的问题 在做祝福生成这类应用时,几乎所有团队都会自然走到同一个想法: 于是你开始做这些事: 收集公众号、朋友圈、公司模板里的祝福...
0
评论
分享
大模型玩家七七
1月前
关注
关系记忆不是越完整越好:chunk size 的隐性代价
这是一个非常“反直觉”的工程问题 在做祝福生成、感谢、道歉这类“关系型表达”的 RAG 系统时,很多工程师都会有一个非常自然的直觉: 于是你会看到这样的数据设计: ...
0
评论
分享
大模型玩家七七
1月前
关注
把祝福语塞进向量库,就能“走心”吗?RAG 在祝福场景的真实答案
这个问题看似小,其实很“工程” “祝福语生成”这种场景,一旦你做过一版微调(比如「码上拜年」),很快就会有人问下一句: “既然我们有大量祝福语样本,那要不要上 RAG?...
0
评论
分享
大模型玩家七七
1月前
关注
从微调到 PPO:祝福 AI 的下一步进化
当“写得不错”,已经不再让人满足 在这样的祝福生成场景中,当你第一次看到微调后的模型输出,通常会有一种很明确的感受: 它不再像模板,不再那么官方, 很多句子甚至可以...
0
评论
分享
大模型玩家七七
1月前
关注
当 Prompt 和 RAG 都开始别扭时,你该认真考虑微调了
微调不是“升级方案”,而是一种判断结果 在很多团队里,微调往往被当成一种“技术升级路径”: 但如果你做过几个真实项目,很快就会意识到一个问题: 有些问题,即...
0
评论
分享
大模型玩家七七
1月前
关注
多任务微调:拜年、感谢、道歉,为什么不是三个简单任务
当“祝福 AI”开始被提更多需求时 几乎所有祝福类应用,在跑通第一个版本之后,都会遇到一个非常现实的问题: 从产品角度看,这个需求非常合理。 从工程角度看,这却是一...
0
评论
分享
大模型玩家七七
1月前
关注
效果评估:如何判断一个祝福 AI 是否“走心”
这是一个“没有标准答案”的评估问题 在大模型项目里,评估往往被认为是一个“技术收尾”的环节: 跑几个指标 对比一下 loss 看看示例输出 但一旦你进入创意生成类任务,...
0
评论
分享
大模型玩家七七
1月前
关注
技术抉择:微调还是 RAG?——以春节祝福生成为例
这不是“用不用 RAG”,而是“RAG 能不能解决这个问题” 在过去一年里,几乎所有团队在遇到生成效果问题时,都会下意识问一句: RAG 已经成为一种工程直觉: 只...
0
评论
分享
大模型玩家七七
1月前
关注
向量数据库从零搭建:文本语义检索实战与工程要点
我一开始真没打算“自己搭一个” 说句实话,我第一次接触向量数据库的时候,根本没想过要自己搭一套。 原因也很现实: 市面上已经有不少成熟产品 文档、SDK、Demo 一应...
0
评论
分享
大模型玩家七七
1月前
关注
第一次跑通 PPO:实战卡点全拆解
PPO 最难的不是“理解”,而是“第一次真的跑通” 如果你已经看过 PPO 的原理文章,大概率会有一种感觉: 这是完全正常的。 因为 PPO 实战,和你熟悉的 ...
0
评论
分享
大模型玩家七七
1月前
关注
热门技术的隐性陷阱:LoRA、PPO、DPO、RAG 的误用边界
这些词第一次帮你,是因为你还清楚自己在干什么 如果你认真回想一下,会发现一个很有意思的现象。 第一次用到这些词的时候—— 第一次上 LoRA 第一次跑 PPO 第一次把...
0
评论
分享
大模型玩家七七
1月前
关注
微调是否会削弱 base model 的原始安全对齐
很多安全问题,并不是“没做对齐”,而是“后来被冲淡了” 在很多团队内部讨论中,这个问题经常被问出来: 这个问题听起来很合理, 但它隐藏了一个更深层、也更危险的误解:...
0
评论
分享
大模型玩家七七
1月前
关注
PPO / DPO 对安全边界的影响:压制还是迁移风险
为什么“对齐之后翻车”,反而更难解释 在很多事故复盘里,经常会出现一句话: 这句话本身没有恶意, 但它隐藏了一个极其危险的假设: 也就是说,只要你做了对齐训...
0
评论
分享
大模型玩家七七
1月前
关注
向量维度、距离函数,如何影响召回结果
很多“召回不准”,其实不是模型不行 在向量检索项目里,常见的抱怨包括: “这个 embedding 好像不太行” “换个模型试试?” “是不是 TopK 太小了?” 但...
0
评论
分享
大模型玩家七七
1月前
关注
RAG 里,什么时候该让模型“少看一点”
大多数 RAG 系统,都是“死在太热心” 如果你回顾一个 RAG 项目的演化过程,往往会发现一条非常一致的路径: 初期: 中期: 后期: 在这个过程...
0
评论
分享
大模型玩家七七
1月前
关注
基于语义切分 vs 基于结构切分的实际差异
切分方式,是 RAG 系统里最早、也最难回头的选择 在 RAG 项目里,切分方式通常是最早被确定的部分之一: 文档进来 切一切 建向量 后面再慢慢调 而且在当时,这个选...
0
评论
分享
大模型玩家七七
1月前
关注
chunk size 变大,模型为什么更容易胡说
最危险的 RAG 错误,往往发生在“看起来很对”的时候 在很多 RAG 项目里,都会经历一个非常相似的阶段: 初期: chunk 切得比较细,模型经常说“信息不足” ...
0
评论
分享
大模型玩家七七
1月前
关注
LoRA、全参、QLoRA:显存占用结构对比
为什么大家都在“省显存”,却越来越说不清显存去哪了 在大模型微调项目里,几乎所有团队都会走到同一个阶段: 显存开始吃紧 batch size 一减再减 sequence l...
0
评论
分享
大模型玩家七七
1月前
关注
微调后模型“记住用户信息”,通常发生在什么阶段
模型“记住用户”,从来不是一个瞬间发生的事 在很多隐私事故复盘里,经常能听到一句话: 但如果你真正把训练过程、数据演化、评估日志一段段翻回去看, 你几乎一定会发现:...
0
评论
分享
下一页
个人成就
文章被点赞
1
文章被阅读
5,025
掘力值
612
关注了
10
关注者
0
收藏集
0
关注标签
3
加入于
2026-01-05