🚀 谁也别想偷看我的代码:vscode接入本地大模型指南

0 阅读6分钟

觉得云端大模型太贵?担心代码被拿去喂 AI?还是单纯想在没网的深夜也能悄悄变强?😏 欢迎来到 Ollama + VS Code 的纯净本地世界!

一、 核心召唤术:安装 Ollama 🦙

Ollama 是目前最火的本地大模型框架,简单到连产品经理都能装好(大概)。

1. 基础召唤步骤

  • 第一步:前往 ollama.com 开启下载之旅。
  • 第二步:安装后直接用 Google 账号一键登录。
  • 第三步(看信号) :在浏览器输入 http://localhost:11434。如果看到下面这个羞涩的回复,说明它已经准备好为你服务了:
  • (看到 "Ollama is running",稳了!)

命令用途
ollama list看看你“后宫”里藏了多少个模型
ollama ps看看哪个模型在偷偷吃你的内存
ollama rm [模型名]渣男行为:删除不想要模型,腾出空间装游戏

使用小模型验证 - 2分钟搞定

安装方式:终端运行

ollama run qwen2.5-coder:1.5b
  1. 小模型:Qwen2.5-Coder-1.5B约900MB,下载2分钟搞定,显存占用极低,几乎不影响你运行其他软件
  2. 然后就可以对话了,看下图
  3. 退出当前对话: 输入 /exit 或者按 Ctrl + D

模型对比

接入其他模型

  1. 首选-需要5分钟左右下载

ollama run qwen2.5-coder:7b

  1. 目前最强,需要40分钟左右下载

ollama run qwen3.6:35b-a3b

二、vscode接入本地大模型

Continue是我们连接本地 AI 的桥梁。

  1. 下载 Continue插件
  2. 配置 config

然后填入如下配置

name: Local Config
version: 1.0.0
schema: v1
models:
  - name: Qwen2.5-Coder 7B
    provider: ollama
    model: qwen2.5-coder:7b
    roles:
      - chat
      - edit
      - apply
      - autocomplete  # 把自动补全也加给它

接着就可以使用了