首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai
订阅
zxwhyr
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
Kiln AI:零代码实现微调模型!自动生成合成数据与微调模型的开源平台
Kiln AI 是一款开源的 AI 开发工具,支持零代码微调多种语言模型,生成合成数据,团队协作开发,自动部署。帮助用户快速构建高质量的 AI 模型。
基于Falcon-7B模型的QLoRA微调实操:构建面向心理健康领域的Chatbot
编者按:在之前的系列文章中,我们介绍了大模型的原理和微调落地的理论方法。本期文章,我们将以实际场景为例,详细介绍微调的实践流程和相关代码。 作者详细介绍了如何使用 QLoRA 技术针
LoRA和QLoRA微调语言大模型:数百次实验后的见解
本文作者Sebastian Raschka通过成百上千次实验,他为使用LoRA和QLoRA对LLM进行微调提供了实用见解,包括节省内存、选择最佳配置等。
使用autoDL部署 , 微调Llama3-8b
使用autoDL部署 , 微调Llama3-8b 首先使用云服务平台autoDL 登陆后租用服务器显存 : 32GB , 内存 : 50GB 选择基础镜像- 控制台-容器实例-点击JupyterLab
用本地大模型(llama3)进行数据分类标记|LLM 用例
使用 ollma+llama3 在本地对数据进行稳定分类,无成本消耗,准确率 80%,速度很快,1 秒一个。
使用 LLaMA Factory 对 Mistral 模型进行微调的流程记录
在算力平台 AutoDL 上使用 LLaMA Factory 对 Mistral 模型进行微调的流程记录
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)
AI (神经网络模型) 可以认为是计算机的一种新的 "编程" 方式. 为了充分利用计算机, 只学习传统的编程 (编程语言/代码) 是不够的, 我们还要掌握 AI. 本文以 qwen2.5 和 llam
LLaMA Factory 微调教程:如何构建高质量数据集?
大家好,欢迎来到code秘密花园,我是花园老师(ConardLi)。 今天我们来到 LLaMA Factory 微调教程的第二期,一起来学习如何构建高质量的微调数据集。 第一期内容:纯本地!零代码!一
llamafactory训练全过程(超详细实况一)
llamafactory详细使用实况,参数设置参考,谨以此文记录踩坑实况,一则日后温习,二则指路旁人
零基础大模型开发实战:(五)使用 LLaMA Factory 微调与量化模型并部署至 Ollama
LLaMA Factory 是一个开源的全栈大模型微调框架,简化和加速大型语言模型的训练、微调和部署流程。