本地部署DeepSeek
1. 下载ollama
在浏览器访问:ollama.com/
点击Download选择Windows版本下载安装包。
Windows安装Ollama
双击下载的安装包,按提示点击install即可,安装完后。下一步即可
linux版本下载安装:
curl -fsSL ollama.com/install.sh | sh
2.Windows本地部署DeepSeek
2.1 选择模型
在浏览器访问deepseek官网,点击model查看对应的模型:DeepSeek
比如deepseek-r1,跳转到以下页面:
2.2 本地下载deepseek-r1模型
根据服务器或电脑内存显示选择Step1中的参数数量,比如我的电脑显存约4GB,选择1.5b参数量,点击右侧Step2中复制按钮,复制命令参数:
ollama run deepseek-r1:1.5b
window机器输入“win+R” 输入cmd,会弹出windows命令行窗口
在窗口中输入cmd执行命令:ollama run deepseek-r1:1.5b; 自动下载部署deepseek-r1:1.5b模型 部署完毕如下:
如果参数选择过大,硬盘不足会安装失败:
2.3 本机显存查看
按下键盘上的“Win + R”组合键,打开运行窗口。
在运行窗口中输入“dxdiag”,然后点击“确定”或按下回车键。
使用DirectX诊断工具查看本机显示-总内存。
2.4 Windows使用DeepSeek
cmd命令行 对话输入:帮我写一段小红书香港澳门旅游攻略; deepseek模型会做出对应的回答。如下图:
下一次使用,再打开cmd,输入ollama run deepseek-r1:1.5b,即可开始deepseek。
3. api调用
3.1 api
Ollama 提供了丰富的 API 接口,供外部调用访问。详细的接口文档 可以在官方 GitHub 中找到。
ollama 本地启动访问端口11434,提供了直接访问模型的api,如上图,访问路径如下:
`http://localhost:11434/api/generate`
访问参数如下:
{ "model": "deepseek-r1:8b", "prompt":"你是谁?"}
或者
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2:1b",
"prompt": "你是谁?"
}'