Deepseek安装教程(Linux)
第一:安装Ollama
步骤一:安装
https://ollama.com/download/linux
很卡,基本下不下来
解决方法:代理
curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
2、使用github文件加速替换github下载地址
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh
3、替换后增加可执行权限
chmod +x ollama_install.sh
4、执行sh下载安装
sh ollama_install.sh
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode
步骤二:启动
systemctl status ollama
步骤三:修改配置,在Service中增加下面两行
**( ****网上说的: **便于后续在容器中运行的OpenWebUI可以访问到Ollama API服务 **) **
[root@localhost ~]# vim /etc/systemd/system/ollama.service
Envirnotallow="OLLAMA_HOST=0.0.0.0"
Envirnotallow="OLLAMA_ORIGINS=*"
步骤四:然后重启ollama服务
systemctl daemon-reload
systemctl restart ollama
验证服务是否开启,11434是核心端口,必须开启。(如果已开启,或关闭防火墙,应该就不用了,直接访问一下试试)
ss -anlp|grep 11434
第二:部署Deepseek R1模型
步骤一:安转
https://ollama.com/download/linux
还是在ollama官网上,点击Models,选择deepseek-r1,不同版本对应的体积大小不同,体积越大模型越精细化,只需要复制命令即可,我这里选择7b
4.7G等待时间较长....
Ctrl+D 退出****
步骤二:交互式聊天模式
ollama list
ollama run deepseek-r1:latest
第三:配置可视化界面
步骤一:安装docker****
参考docker安装文档****
systemctl status docker
步骤二:启动Open WebUI****
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.3.18:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装等待时间较长....
步骤三:可打开Open WebUI页面****
http://192.168.3.18:3000/
Open Webui白屏问题:
先等页面加载出来,可能很长时间****