GPUStack私有模型仓库配置教程

0 阅读2分钟

GPUStack 当前支持从 Hugging FaceOllama Registry 模型仓库部署模型,其中 Ollama 使用了 OCI 分发规范来分发模型镜像,虽然 Ollama 不支持通过 Docker 来构建和管理 Ollama 的模型镜像,但 Ollama 提供了相关的 CLI 命令同样可以用来管理模型镜像,例如进行 pull 和 push 等操作,也支持使用 Docker Registry 作为自托管的私有模型仓库。

配置教程

前置准备工作

安装 Docker

安装 Ollamaollama.com/

安装 GPUStack,参考:

docs.gpustack.ai/quickstart/

运行 Docker Registry

通过 Docker 在本地运行一个 Docker Registry 容器,监听在主机的5001端口:

docker run -d -p 5001:5000 --name registry registry:2

检查 Registry 容器运行状态:docker ps

访问 Docker Registry 端点验证 Registry 服务正常:curl http://localhost:5001/v2

​编辑

Ollama 推送模型镜像到 Docker Registry

运行 Ollama,然后打开命令行,通过 Ollama 命令下载 llama3.1 模型:ollama pull llama3.1

检查已下载好的模型:ollama list

​编辑

通过 ollama cp 命令将模型拷贝一个指向 Docker Registry 地址的名称:ollama cp llama3.1 192.168.50.53:5001/library/llama3.1

将模型镜像推送到 Docker Registry :ollama push 192.168.50.53:5001/library/llama3.1 --insecure

​编辑

配置 GPUStack 使用私有模型仓库

配置 GPUStack,添加 --ollama-library-base-url 启动参数指定 Docker Registry 的地址:curl -sfL get.gpustack.ai | sh -s - --ollama-library-base-url http://192.168.50.53:5001

检查 GPUStack 日志,确认 GPUStack 服务正常启动:tail -200f /var/log/gpustack.log

​编辑

从私有模型仓库部署模型

访问 GPUStack,选择模型-部署模型,选择从 Ollama Library 部署,填写前面推送到 Docker Registry 的模型名称,教程示例是 llama3.1,如下:

​编辑

GPUStack 会从私有模型仓库下载模型,而不是从公网 Ollama Library 下载:

​编辑