首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
小原爱学习
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
SFT训着训着成复读机了?这招帮你解决!
今天聊聊一个很多朋友踩过的坑:用SFT微调大模型时,模型越训越不对劲,回答变得越来越短、越来越模板化,动不动就重复某些句式。
垂直SFT过拟合(Overfitting)的深层机制与精准对抗
在大模型微调(SFT)的世界里,过拟合就像一个潜伏的隐形杀手。当70B参数的巨无霸模型遇上仅10万条的训练数据,会发生什么?
被大模型微调过拟合、灾难性遗忘折磨的宝子们有福了!
被垂直SFT的过拟合、灾难性遗忘折磨的宝子们有福了! 这个神仙开源工具实在是太有用了,忍不住分享给正在被大模型微调折磨的宝子
垂直 SFT 常见翻车复盘:过拟合、复读、灾难性遗忘如何系统性处理?
做垂直微调时,很多团队的诉求并不复杂:希望模型在特定业务场景里更稳定、更准确、更可控。但现实是,SFT 往往不是一次性工程:数据会迭代、任务会新增、模型会升级、线上反馈会推动你不断重训。
从“复读机“到“思考者“:用Y-Trainer破解垂直领域SFT训练的三大困局
本文从实战角度分析垂直领域SFT训练中常见的"复读机"、"灾难性遗忘"和"过拟合"问题,并详解如何通过Y-Trainer框架及其NLIRG算法解决这些痛点。文末附完整实操指南与效果验证方法
垂直领域SFT训练翻车实录:用Y-Trainer解决模型"复读+失忆"困境
本文将探讨垂直领域SFT训练中常见的过拟合与灾难性遗忘问题,并介绍一种基于token级梯度调控的解决方案——Y-Trainer中的NLIRG算法。文末附实操指南与效果验证方法,助你摆脱训练调参噩梦。
个人成就
文章被点赞
1
文章被阅读
148
掘力值
76
关注了
0
关注者
0
收藏集
0
关注标签
8
加入于
2026-01-20