觉得云端大模型太贵?担心代码被拿去喂 AI?还是单纯想在没网的深夜也能悄悄变强?😏 欢迎来到 Ollama + VS Code 的纯净本地世界!
一、 核心召唤术:安装 Ollama 🦙
Ollama 是目前最火的本地大模型框架,简单到连产品经理都能装好(大概)。
1. 基础召唤步骤
- 第一步:前往 ollama.com 开启下载之旅。
- 第二步:安装后直接用 Google 账号一键登录。
- 第三步(看信号) :在浏览器输入
http://localhost:11434。如果看到下面这个羞涩的回复,说明它已经准备好为你服务了: - (看到 "Ollama is running",稳了!)
| 命令 | 用途 |
|---|---|
ollama list | 看看你“后宫”里藏了多少个模型 |
ollama ps | 看看哪个模型在偷偷吃你的内存 |
ollama rm [模型名] | 渣男行为:删除不想要模型,腾出空间装游戏 |
使用小模型验证 - 2分钟搞定
安装方式:终端运行
ollama run qwen2.5-coder:1.5b
- 小模型:Qwen2.5-Coder-1.5B约900MB,下载2分钟搞定,显存占用极低,几乎不影响你运行其他软件
- 然后就可以对话了,看下图
- 退出当前对话: 输入
/exit或者按Ctrl + D。
模型对比
接入其他模型
- 首选-需要5分钟左右下载
ollama run qwen2.5-coder:7b
- 目前最强,需要40分钟左右下载
ollama run qwen3.6:35b-a3b
二、vscode接入本地大模型
Continue是我们连接本地 AI 的桥梁。
- 下载 Continue插件
- 配置 config
然后填入如下配置
name: Local Config
version: 1.0.0
schema: v1
models:
- name: Qwen2.5-Coder 7B
provider: ollama
model: qwen2.5-coder:7b
roles:
- chat
- edit
- apply
- autocomplete # 把自动补全也加给它
接着就可以使用了