开年第一篇,手把手教学本地部署DeepSeek,断网也不影响使用,同时保护隐私数据不泄露。1、下载安装DeepSeek是个大模型,需要运行在支持LLM(大语言模型)的工具上,这里选择被广泛使用的Ollama。打开网址:ollama.com,下载安装Ollama。
当任务栏出现一个羊驼的图标,说明安装成功。或者CMD命令行输入:
ollama -v
接着,运行对应参数的大模型,供个人电脑的大概有6个,我整理了个表格,大家根据要求自行选择。不确定自己电脑是否能跑起来,那就先跑个1.5b的试试水,后面再切换到更大参数。我的显卡是4070 Ti Super 16G,选择7b规格。CMD窗口执行命令:
ollama run deepseek-r1:7b
后台会自动下载模型,当出现一个输入框,表示DeepSeek运行成功,就可以直接提问。输入 /bye 退出DeepSeek。2、图形页面为了更友好方便使用,借助Open WebUI调用DeepSeek的AI接口。第一步安装Docker,打开官网:www.docker.com,下载安装包一步步执行即可。如果之前曾经使用过,这一步跳过。第一次需要注册管理员账号,可以自定义输入账号信息完成。浏览器自动跳转到Open WebUI的主页,左上角可以看到当前ollama下所有的模型,下拉选择deepseek-r1。
恭喜,你已经可以通过页面优雅的调用各个版本的DeepSeek,当然其他开源模型,也可以通过这种方式使用。