首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LearnLLM_AI
掘友等级
LearnLLM.AI
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
93
文章 93
沸点 0
赞
93
返回
|
搜索文章
最新
热门
干货:落地企业级RAG的实践指南
对于企业级数据,很多来自多种文档类型,例如 PDF、Word 文档、电子邮件和网页, 我们需要关注以下两个阶段:Load & Process,Split/Chunking
大模型应用涌现出的新工作机会-红队测试Red-teaming
在发布大模型应用之前,我们需要发现这些潜在的漏洞和风险(并修复),而不是被用户发现,不然就死翘翘了。
(也许是)全网最全的神经网络优化器optimizer总结
前一段时间,我想搞清楚优化器的发展脉络,试图了解从梯度下降到现在最常用的AdamW的发展。但搜索了很多资料,都没找到一个全面的总结。所以我决定自己整理一份,希望能帮助到大家。
每天3分钟,彻底弄懂神经网络的优化器(十二)RAdam
RAdam算法通过引入一个修正项来解决自适应学习率在模型训练早期阶段过大的方差问题,从而改善了优化过程的稳定性和鲁棒性。
DevOps, AIOps, MLOps, LLMOps,这些Ops都是什么?
你会在很多地方看到这些词,或许AIOps和MLOps还会搞混淆,本文我们来一一解释这些Ops的含义。
每天3分钟,彻底弄懂神经网络的优化器(十一)AdamW
AdamW通过将权重衰减从梯度更新中解耦,从而在每次迭代中更有效地应用权重衰减。这种方法在实践中被证明可以提高模型的收敛速度和泛化能力。
每天3分钟,彻底弄懂神经网络的优化器(十)Nadam
Nadam算法结合了Adam算法和Nesterov Accelerated Gradient(NAG)算法的优点,旨在提高优化算法的性能。
每天3分钟,彻底弄懂神经网络的优化器(九)Adam
Adam算法结合了AdaGrad算法和RMSProp算法的优点,通过计算梯度的一阶矩估计和二阶矩估计来为不同的参数设计独立的自适应性学习率,从而实现更高效的网络训练。
每天3分钟,彻底弄懂神经网络的优化器(八)RMSprop
RMSProp 算法是一种自适应学习率的优化方法,它通过使用梯度的平方的指数移动平均值来调整每个参数的学习率,从而加快学习速度并减少训练过程中的震荡
大模型性能评测之数星星
大海捞针NeedleInAHaystack已经成为评测大模型长文本能力的基本方法,鹅厂的MLPD实验室整了个花活,用小企鹅数星星的方法测试大模型的长文本能力.
下一页
个人成就
文章被点赞
129
文章被阅读
60,255
掘力值
1,862
关注了
0
关注者
43
收藏集
0
关注标签
4
加入于
2024-04-23