ollama部署本地模型(deepseek,qwen,gemma3,...)

982 阅读2分钟

介绍

ollama​​ 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(deepseek,qwen,gemma3,...)。

主要特点:

  • 🚀 ​​本地运行​​:模型完全在本地运行,无需联网,保护隐私
  • 📦 ​​简单易用​​:一键安装,命令行操作简单
  • 🔧 ​​多平台支持​​:支持 Windows、macOS、Linux

安装

windows 系统

Ubuntu/Debian 系统

  • curl -fsSL https://ollama.com/install.sh | sh

拉取模型

  • 搜索地址: ollama.com/search
  • 以下是一些常用模型,不需要显卡用cpu就可以带起来;
  • 如有好一点的显卡(如 GeForce RTX 4060),可使用 32B 的模型,效果更好。
ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型
ollama pull deepseek-r1:7b      # deepseek 模型
ollama pull deepseek-coder:6.7b # deepseek 代码模型
  • 查看已有模型:ollama list
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago
  • 注意:要是无法拉取,可以挂一下代理
  • 拉取的模型文件在 C:\Users\[账户名]\.ollama 路径下(windows),如过想把模型移动到另一台内网电脑,可以打包复制该文件夹

运行模型

  • 默认 Ollama服务绑定到 127.0.0.1:11434
ollama run deepseek-r1:7b 
  • 可修改 OLLAMA_HOST 替换服务端口

# Linux/macOS
export OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (Command Prompt)
set OLLAMA_HOST=0.0.0.0:11435
ollama serve

# Windows (PowerShell)
$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

使用

open-webui

demo转存失败,建议直接上传图片文件

  • python 安装运行:
pip install open-webui
open-webui serve

edge浏览器插件:Page Assist

vscode 插件 : Continue.continue

name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT

continue.png