Ubuntu / WSL本地私有化部署deepseek

282 阅读1分钟

1. 下载Ollama

curl -fsSL https://ollama.com/install.sh | sh

2. 修改Ollama配置,默认Ollama仅开启在本地11434端口

vim /etc/systemd/system/ollama.service 

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/root/.cargo/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

# 新增 Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target

3. 重新加载系统文件

systemctl daemon-reload
systemctl restart ollama
systemctl status ollama

4. 测试Ollama正常运行,访问 http://localhost:11434

5. ollama官网查看要使用的模型 https://ollama.com/library/deepseek-r1

image.png

6. 将模型拉取到本地

ollama pull deepseek-r1:7b

7. 查看本地拥有的模型

ollama list 

image.png

8. DockerCompose部署可视化界面open-webui

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: always
    ports:
      - "3001:8080"
    environment:
      - WEBUI_AUTH=False
    volumes:
      - ./data:/app/backend/data
docker compose up -d

9. 访问localhost:3001

image.png

10. 若open-webui无法加载ollama模型

点击右上角头像->设置->管理员设置->外部连接 进行配置 image.png

11. 回到主页,即可加载所有模型

image.png

12. 如果不想手动拉取模型,也可在open-webui上拉取

点击右上角头像->设置->管理员设置->模型 进行配置

image.png