本地部署DeepSeek-R1

290 阅读1分钟

开年第一篇,手把手教学本地部署DeepSeek,断网也不影响使用,同时保护隐私数据不泄露。1、下载安装DeepSeek是个大模型,需要运行在支持LLM(大语言模型)的工具上,这里选择被广泛使用的Ollama。打开网址:ollama.com,下载安装Ollama。

image.png 当任务栏出现一个羊驼的图标,说明安装成功。或者CMD命令行输入:

ollama -v

接着,运行对应参数的大模型,供个人电脑的大概有6个,我整理了个表格,大家根据要求自行选择。图片不确定自己电脑是否能跑起来,那就先跑个1.5b的试试水,后面再切换到更大参数。我的显卡是4070 Ti Super 16G,选择7b规格。CMD窗口执行命令:

ollama run deepseek-r1:7b

图片后台会自动下载模型,当出现一个输入框,表示DeepSeek运行成功,就可以直接提问。输入 /bye 退出DeepSeek。2、图形页面为了更友好方便使用,借助Open WebUI调用DeepSeek的AI接口。第一步安装Docker,打开官网:www.docker.com,下载安装包一步步执行即可。如果之前曾经使用过,这一步跳过。![图片](https://p9-xtjj-si… WebUI实例,CMD执行命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

图片然后通过docker ps命令检查实例是否正常运行。浏览器访问网址:http://127.0.0.1:3000,点击【开始使用】。![图片](https://p9-xtjj-sign.byteimg.com/tos-cn-i-73owjymdk6/67ba9928ca094fb5b911fadc4a59a6ea~tplv-73owjymdk6-jj-mark-v1:0:0:0:0:5o6Y6YeR5oqA5pyv56S-5Yy6IEAgR2VvZmZyZXk=:q75.awebp?rk3s=f64ab15b&x-expires=1771562770&x-signature=RcauB1zArRDKsmF%2Fz5tNE9Te%2BMI%3D)第一次需要注册管理员账号,可以自定义输入账号信息完成。浏览器自动跳转到Open WebUI的主页,左上角可以看到当前ollama下所有的模型,下拉选择deepseek-r1。图片图片恭喜,你已经可以通过页面优雅的调用各个版本的DeepSeek,当然其他开源模型,也可以通过这种方式使用。