首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
千里足下
掘友等级
此为我得读书笔记专用小号。没必要关注。有需要请看原文。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
[笔记][大模型学习]18-LMDeploy部署大模型
XTunnel,训练速度快一些。命令行比较方便。 LMDeploy ,高效且友好的LLMs部署框架。 高效的推理。动态拆分和融合张量并行。 可靠的量化 便捷的服务 有状态推理 卓越的兼容性 量化工具比
[笔记][大模型学习]17-Xtuner微调大模型
xTuner微调大模型 书生 浦语 大模型开源工具链 xTunner,对cuda貌似没啥要求。 验证的数据集需要自己粘贴进去。 xTunner侧重主观评估。 验证的主观评估,提几个关键问题。一般是甲方
[笔记][大模型学习]16-Qwen模型打包部署(HF转GGUF&ollama+open_webui部署)
一些报错的环境经验: 跟量化相关(训练,导出),一般会跟cuda版本相关 推理加速(vLLM) 最通用的cuda版本,cuda 11.8, 12.1 vLLM对 cuda, torch, transf
[笔记][大模型学习]15-Qwen模型打包部署(Lora模型合并&转GGUF模型部署)
LoRA模型合并 什么是GGUF LLama Factory量化微调训练 如何使用llama.cpp将模型转换为GGUF open-webui部署 训练过程中,会去做验证,需要调到验证也能过的阈值,才
[笔记][大模型学习]14-LLaMA-Factory模型评估与QLora微调
LoRA与QLoRA 什么事GGUF LLama Factory量化微调训练 如何使用llama.cpp将模型转换为GGUF AI技术路线 微小模型 小模型 大模型 LLama Factory 怎么做
[笔记][大模型学习]13-LLaMA-Factory模型导出量化
LLama Factory模型量化环境配置 LLama factory模型评估 LLama Factory模型导出量化与效果对比 如何用LLama factory基于之前训练的权重继续训练 每一个大模
[笔记][大模型学习]12-Lora模型合并与推理测试
LLaMa3 文本生成模型评估方法: 客观评估 主观评估 OpenCompass: 采用客观评测与主观评估结合的方法。 分类任务中,有客观标准。但生成式任务重,客观标准没有。需要客观加主观综合一起。
[笔记][大模型学习]11-Llama3.2模型微调
Ollama 主要是对个人用户。 Ollama上的所有大模型,都是量化版本,精度没有原始的高。 对分布式推理比较弱 企业一般用VLLM 只做大模型推理 直接安装 推理框架,调用大模型用的 transf
[笔记][大模型学习]10-llama3大模型本地调用
上次回顾 数据可视化:tensorboard 模型训练时候的加速方法:混合精度运算 Hugging Face 模型微调训练 GPT2-中文生成模型定制化内容输出 model.eval() 测试的时候,
[笔记][大模型学习]09-远程GPU服务器
Model Scope在线训练平台介绍 微调模式 全量微调 对所有参数进行微调 对算力和显存要求高 效果最佳 局部微调 只调整模型部分参数,例如输出层,输入层或某些特殊层 对算力和显存要求一般 增量微
下一页
个人成就
文章被点赞
1
文章被阅读
3,964
掘力值
200
关注了
0
关注者
0
收藏集
0
关注标签
12
加入于
2025-03-28