获得徽章 0
openclaw吹了这么半天现在有多大用处我还是没看懂,感觉部署过程大于实际用途[流汗]
8
trae国际版更新这么久还是烂,试用了下qoder感觉也挺好用的[流汗]
2
半个月没买号windsurf的账号怎么也涨了,先买个trae的凑合用用[发怒]
7
超时空辉夜姬太好看了,还想再看一遍[可怜]
3
赞了这篇沸点
好好好 三幻神就差天幕了
moe_于2025-10-20 13:29发布的图片
moe_于2025-10-20 13:29发布的图片
moe_于2025-10-20 13:29发布的图片
moe_于2025-10-20 13:29发布的图片
6
赞了这篇沸点
jym,华为OD的面试难度怎么样?有了解的说一下吗?
10
赞了这篇沸点
jym,我不能在摆烂了,100赞直接提离职
149
有大佬考过软考高级吗,一般要准备多久啊,感觉5月份的有点来不及了准备11月的,想报班的话报哪个比较靠谱?
20
赞了这篇沸点
学会了吗[呲牙]
mortimer于2024-07-08 10:20发布的图片
12
赞了这篇沸点
#新人报道# 关于保持更新版本模型前后一致的思考
保持更新版本模型保持前后一致性
图模型前后理解一致性
其实不一致的原因大体看来有3个:
1.条件laten分布的差异
2.文本到图对齐模型差异
3.diffusion生成过程的差异
我们在训练时候既然希望能够保持前后迭代的稳定,并且保持后一版本比前一版本更优秀。
那么其实我们确实需要保证在上个版本中条件laten尽可能一致,至少我们宏观表示一致,我们希望优化的是描述细节、细粒度对齐,那么我们是不是可以通过换词换细节描述方式让模型学会细节表述(比如文本被压到的空间分布是尽可能一致)
对于整体如果不符合预期的图文,我们就在新版本中让模型纠正到正确表示
也就是我们后续模型的迭代应该是在做基准模型的sft、rlhf对齐,如果真需要做二次预训练应该也是只对表述不好的图片进行学习
展开
liangsh01于2024-04-19 10:12发布的图片
评论
下一页