首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户061853299128
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
赞
文章( 2 )
沸点( 0 )
制作并量化GGUF模型上传到HuggingFace和ModelScope
使用 llama.cpp 制作并量化 GGUF 模型,并将模型上传到 HuggingFace 和 ModelScope 模型仓库
如何创建llama.cpp使用的GGUF 模型文件?
llama2 系列大语言模型通常在 PyTorch 中进行训练和微调。因此,它们通常作为 PyTorch 项目分布在 Huggingface 上。然而,当谈到推理时,我们对 GGUF 模型格式更感兴趣
关注了
3
关注者
0
收藏集
0
关注标签
1
加入于
2025-06-12