首页
AI Coding
AIDP
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习
订阅
zoro197
更多收藏集
微信扫码分享
微信
新浪微博
QQ
2篇文章 · 0订阅
大模型参数高效微调技术实战(五)-LoRA
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调
大模型应用之RAG详解
技术最初源于2020年Facebook的一篇论文——《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》。是的。
Qwen-1.5-7b指令微调实战:SwanLab可视化训练
以Qwen-1.5作为基座大模型,通过指令微调的方式实现高准确率的文本分类是学习大语言模型微调的入门级任务。 在这篇文章我将带大家使用swanlab,modelscope等开源工具实现模型微调全流程