Deepseek安装教程(Linux)​

179 阅读1分钟

Deepseek安装教程(Linux)​

​​​​

第一:安装Ollama​

步骤一:安装​

​https://ollama.com/download/linux​​​

很卡,基本下不下来​

解决方法:代理​


curl -fsSL https://ollama.com/install.sh -o ollama_install.sh​

2、使用github文件加速替换github下载地址​

sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh​

3、替换后增加可执行权限​

chmod +x ollama_install.sh​

4、执行sh下载安装​

sh ollama_install.sh​

WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode​

步骤二:启动​

systemctl status ollama​

步骤三:修改配置,在Service中增加下面两行​

** ****网上说的: **便于后续在容器中运行的OpenWebUI可以访问到Ollama API服务 ** **​

[root@localhost ~]# vim /etc/systemd/system/ollama.service​

Envirnotallow="OLLAMA_HOST=0.0.0.0"​

Envirnotallow="OLLAMA_ORIGINS=*"​

步骤四:然后重启ollama服务​

systemctl daemon-reload​

systemctl restart ollama​

验证服务是否开启,11434是核心端口,必须开启。(如果已开启,或关闭防火墙,应该就不用了,直接访问一下试试)​

ss -anlp|grep 11434​

第二:部署Deepseek R1模型​

步骤一:安转​

​https://ollama.com/download/linux​​​

还是在ollama官网上,点击Models,选择deepseek-r1,不同版本对应的体积大小不同,体积越大模型越精细化,只需要复制命令即可,我这里选择7b​

4.7G等待时间较长....

Ctrl+D 退出****​

步骤二:交互式聊天模式​

ollama list​

ollama run deepseek-r1:latest​

第三:配置可视化界面​

步骤一:安装docker****​

参考docker安装文档****​

systemctl status docker

步骤二:启动Open WebUI****​

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.3.18:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main​

安装等待时间较长....

步骤三:可打开Open WebUI页面****​

​http://192.168.3.18:3000/​​​

Open Webui白屏问题:

先等页面加载出来,可能很长时间****​