deepseek本地部署
第一步:安装ollama
Tip: 根据自己的电脑系统进行选择
ollama 官网: ollama.com/download
第二步:在ollama 官网搜索
ollama 官网: ollama.com/
1. 选择deepSeek-r1
2. 选择deepSeek-r1
3.模型大小与显卡需求
第三步:在终端执行 命令
我是在笔记本部署的,运行内存有限, 选择的是 8b 的
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
文件有点大,请耐心等待...
第四步:测试功能
第五步:基本命令
#退出模型
>>> /bye
#查看模型
C:\Users\chk>ollama list
NAME ID SIZE MODIFIED
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 3 minutes ago
#启动模型
ollama run deepseek-r1:1.5b
>>>
#查看帮助
C:\Users\chk>ollama -h
Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information
Use "ollama [command] --help" for more information about a command.
第六步可视化部署Web UI
1. 下载Chatbox AI
ChatBox官网: chatboxai.app/zh
2. 设置语言(默认中文)
设置--> 显示
第七步配置 Chatbox AI
点击 Chatbox 软件左下角的设置按钮,在“模型”选项卡中依次进行下列配置。
模型提供方:选择 “Ollama API”。
API域名:填写 http://127.0.0.1:1134, 这是 Ollama 的默认端口。// 会自动识别
模型名称:填写与部署的 DeepSeek 模型版本严格一致的名称,如deepseek-r1:8b。 // 会自动识别
第八步配置环境
在 Windows 上,Ollama 会继承你的用户和系统环境变量。
通过任务栏退出 Ollama。
打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
点击编辑你账户的环境变量。
为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
点击确定/应用以保存设置。
从 Windows 开始菜单启动 Ollama 应用程序。
第九步 配置成功, 可以使用
经过一系列操作,我们成功在本地完成了 DeepSeek-R1 模型的部署。现在,再搭配上交互界面友好的客户端,你就能开启轻松愉悦的 DeepSeek 模型体验之旅,畅享高效智能的对话服务了。
如果觉得文章不错,欢迎随手给个点赞关注