首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户57088761533
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
33
文章 33
沸点 0
赞
33
返回
|
搜索文章
赞
文章( 33 )
沸点( 0 )
llama.cpp模型量化(本地) + ollama部署(docker)(超详细实况二)
上一篇我们完成了模型的微调和导出,为了在本地也能随时使用,因此我们还需要对微调后的模型文件做一些操作 llama.cpp本地编译构建+ollama部署~
Windows下llamafactory+ollama+docker 微调部署全流程速通(RTX4090公版)
前言 在unsloth莫名报错之后,转身投向了国产微调工具的怀抱 llamafactory----消费级显卡用户的大模型微调福音
大模型私人定制:5分钟教你不写一行代码微调构建属于你的大模型(使用llama-factory微调Qwen大模型)
本文介绍了使用llama-factory微调大模型的方法,无需编程即可将通用模型转化为领域专家。涵盖微调原理(如LORA高效调参)、环境搭建、数据集构建、参数设置及实战步骤,并演示了模型评测对比。
关注了
4
关注者
0
收藏集
0
关注标签
0
加入于
2025-05-16