手把手教你本地部署DeepSeek(windows环境)

1,010 阅读2分钟

本地部署DeepSeek

1. 下载ollama

在浏览器访问:ollama.com/
image.png

点击Download选择Windows版本下载安装包。

image.png

Windows安装Ollama

双击下载的安装包,按提示点击install即可,安装完后。下一步即可

linux版本下载安装:

curl -fsSL ollama.com/install.sh | sh

2.Windows本地部署DeepSeek

2.1 选择模型

在浏览器访问deepseek官网,点击model查看对应的模型:DeepSeek

image.png

比如deepseek-r1,跳转到以下页面:

deepseek-r1

image.png

2.2 本地下载deepseek-r1模型

根据服务器或电脑内存显示选择Step1中的参数数量,比如我的电脑显存约4GB,选择1.5b参数量,点击右侧Step2中复制按钮,复制命令参数:

ollama run deepseek-r1:1.5b

window机器输入“win+R” 输入cmd,会弹出windows命令行窗口

image.png

在窗口中输入cmd执行命令:ollama run deepseek-r1:1.5b; 自动下载部署deepseek-r1:1.5b模型 部署完毕如下:

120046dfe8e04d22559df28832a90ed.png

如果参数选择过大,硬盘不足会安装失败:

image.png

2.3 本机显存查看

按下键盘上的“Win + R”组合键,打开运行窗口。

在运行窗口中输入“dxdiag”,然后点击“确定”或按下回车键。

image.png

使用DirectX诊断工具查看本机显示-总内存。

image.png

2.4 Windows使用DeepSeek

cmd命令行 对话输入:帮我写一段小红书香港澳门旅游攻略; deepseek模型会做出对应的回答。如下图:

image.png

下一次使用,再打开cmd,输入ollama run deepseek-r1:1.5b,即可开始deepseek。

3. api调用

3.1 api

Ollama 提供了丰富的 API 接口,供外部调用访问。详细的接口文档 可以在官方 GitHub 中找到。

image.png

ollama 本地启动访问端口11434,提供了直接访问模型的api,如上图,访问路径如下:

`http://localhost:11434/api/generate`

访问参数如下:

{  "model": "deepseek-r1:8b",  "prompt":"你是谁?"}

或者

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2:1b",
  "prompt": "你是谁?"
}'

4. 浏览器可视化插件 Page Assist

4.1 搜索 Page Assist插件,下载

image.png

4.2 浏览器,扩展,拖拽已加载插件

image.png

4.3 打开插件页,配置ollama地址及模型

image.png

4.4 开始使用吧

image.png