用 Latix + Continue 搭建自己的 AI Coding 工作流

1 阅读9分钟

现在 AI Coding 工具越来越多,Cursor、Cline、Continue、Roo Code、Aider 都很受欢迎。

其中 Continue 是一个比较适合开发者长期使用的 VSCode 开源插件。它可以在编辑器里完成代码解释、重构、生成、聊天、上下文检索等工作,并且支持自定义模型 API。

如果你已经有自己的模型服务,或者希望用一个统一入口接入 GPT、Claude、Gemini、DeepSeek、Qwen 等模型,那么可以用 Latix + Continue 搭建一套自己的 AI Coding 工作流。

这篇文章会介绍一种比较实用的配置方式。

为什么选择 Continue

Continue 是一个开源 AI Coding 插件,可以直接安装在 VSCode 里使用。

它的优势是:

  • 支持自定义模型
  • 支持 OpenAI-compatible API
  • 可以读取当前文件、选中代码、项目上下文
  • 支持 Chat、Edit、Autocomplete 等能力
  • 配置灵活,适合开发者自己折腾和沉淀工作流

和一些封闭式 AI IDE 不同,Continue 更像一个可以自己组装的 AI Coding 工作台。

你可以决定:

  • 聊天用哪个模型
  • 代码补全用哪个模型
  • 重构用哪个模型
  • 是否走自己的 API Key
  • 不同任务用不同性价比的模型

这也是它和 Latix 搭配的价值所在。

Latix 在这里做什么

Latix 提供统一的 AI 模型 API 入口。

简单理解,你可以通过一个 OpenAI-compatible API 接入多种模型,比如:

  • GPT 系列
  • Claude 系列
  • Gemini 系列
  • DeepSeek 系列
  • Qwen 系列
  • Llama 系列

这样 Continue 不需要分别配置多个厂商的 API 地址,只需要配置:

API Base URL API Key Model Name

如果后续你想切换模型,通常只需要改模型名。

这对 AI Coding 工作流很有用,因为不同任务适合不同模型:

  • 代码解释:可以用响应快、成本低的模型
  • 复杂重构:可以用推理和代码能力更强的模型
  • 长文件分析:可以用上下文更长的模型
  • 文档生成:可以用表达能力更稳定的模型
  • 日常问答:可以用性价比高的模型

准备工作

你需要准备:

  1. VSCode
  2. Continue 插件
  3. Latix API Key
  4. 一个可用的模型名称

Continue 插件可以在 VSCode 插件市场搜索:

Continue

Latix API Base URL:

https://api.latix.ai/v1

API Key 可以在 Latix 控制台创建。

建议先准备一个 .env 或本地安全记录,避免把 API Key 写到公开仓库里。

安装 Continue

在 VSCode 左侧插件市场搜索:

Continue

安装完成后,侧边栏会出现 Continue 图标。

第一次打开时,它可能会引导你选择模型服务。如果你要用 Latix,可以选择 OpenAI-compatible 或手动编辑配置文件。

配置 Latix 模型

Continue 的配置通常在本机用户目录下。

你可以在 Continue 面板里找到配置入口,也可以直接打开配置文件。

常见配置文件是:

~/.continue/config.json

或者新版本可能使用:

~/.continue/config.yaml

不同版本 Continue 配置格式可能略有差异。如果你使用的是新版 Continue,建议以插件当前生成的配置文件为准,然后把模型部分替换成 Latix 的 OpenAI-compatible 配置。

下面给一个常见 JSON 配置示例。

{
  "models": [
    {
      "title": "Latix GPT",
      "provider": "openai",
      "model": "gpt-4o-mini",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    },
    {
      "title": "Latix Claude",
      "provider": "openai",
      "model": "claude-3-5-sonnet",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    },
    {
      "title": "Latix Gemini",
      "provider": "openai",
      "model": "gemini-1.5-pro",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    }
  ]
}

如果你的 Continue 版本使用 YAML,可以参考这种写法:

models:
  - title: Latix GPT
    provider: openai
    model: gpt-4o-mini
    apiBase: https://api.latix.ai/v1
    apiKey: 你的_Latix_API_Key

  - title: Latix Claude
    provider: openai
    model: claude-3-5-sonnet
    apiBase: https://api.latix.ai/v1
    apiKey: 你的_Latix_API_Key

  - title: Latix Gemini
    provider: openai
    model: gemini-1.5-pro
    apiBase: https://api.latix.ai/v1
    apiKey: 你的_Latix_API_Key

配置完成后,重启 VSCode 或重新加载 Continue。

更安全的 API Key 配置方式

不建议把 API Key 直接写进公开仓库。

Continue 的配置文件通常在本机用户目录,不会跟随项目提交。但如果你习惯同步 dotfiles,还是要注意密钥泄露。

更稳妥的方式是使用环境变量。

例如在系统环境变量中配置:

LATIX_API_KEY=你的_Latix_API_Key

然后在 Continue 配置里引用环境变量。

具体引用方式可能随 Continue 版本变化,你可以在插件配置文档中确认。如果当前版本不支持环境变量引用,至少要保证配置文件不会进入 Git 仓库。

推荐工作流一:用低成本模型做日常问答

日常开发里,很多问题并不需要最强模型。

比如:

  • 解释一段代码
  • 生成一个工具函数
  • 写单元测试样例
  • 翻译报错信息
  • 解释 TypeScript 类型错误
  • 根据接口字段生成类型定义

这些任务可以配置一个响应快、成本低的模型作为默认模型。

例如:

{
  "title": "Latix Fast Coding",
  "provider": "openai",
  "model": "gpt-4o-mini",
  "apiBase": "https://api.latix.ai/v1",
  "apiKey": "你的_Latix_API_Key"
}

这样平时问问题、写小函数、理解代码,速度会比较舒服。

推荐工作流二:复杂重构切换强模型

当你需要做复杂任务时,可以切到更强的模型。

例如:

  • 重构一个模块
  • 分析多文件调用链
  • 设计接口抽象
  • 排查复杂 bug
  • 生成迁移方案
  • 做代码 review

这类任务对模型的上下文理解和推理能力要求更高。

你可以在 Continue 里配置一个专门用于复杂任务的模型:

{
  "title": "Latix Strong Reasoning",
  "provider": "openai",
  "model": "claude-3-5-sonnet",
  "apiBase": "https://api.latix.ai/v1",
  "apiKey": "你的_Latix_API_Key"
}

使用时,在 Continue 面板里切换模型即可。

推荐工作流三:为不同任务写固定 Prompt

Continue 很适合沉淀固定工作流。

比如你可以准备一些常用 Prompt:

代码解释

请解释这段代码的作用,重点说明: 
1. 数据从哪里来 
2. 关键状态如何变化 
3. 可能有哪些边界情况

代码 Review

请以代码审查的方式检查这段代码,重点关注: 
1. 潜在 bug 
2. 安全风险 
3. 性能问题 
4. 可维护性 
5. 是否缺少测试

重构建议

请基于当前代码给出重构建议,但不要改变现有行为。请优先保持改动小、风险低。

单元测试生成

请为这段代码生成单元测试,覆盖正常路径、异常路径和边界情况。

这些 Prompt 可以配合 Continue 的选中代码上下文使用。选中代码后发送,模型会基于当前上下文回答。

推荐工作流四:用 Continue 理解陌生项目

接手一个新项目时,可以用 Continue 加速理解。

常见问题:

请根据当前文件说明这个模块的职责。

这个函数被哪些业务流程依赖?如果我要修改它,需要注意什么?

请帮我梳理这个 React 组件的状态流和用户交互流程。

请根据当前代码生成一份接口字段说明。

对于大型项目,建议不要一次性让模型读太多内容。可以从入口文件、核心组件、接口层、状态管理几个方向逐步问。

推荐工作流五:结合 Git 做代码 Review

开发完成后,可以让 Continue 辅助 Review 当前改动。

你可以把 diff 贴给 Continue,或者选中关键文件后提问:

请 review 当前改动,优先找 bug 和回归风险,不要只做风格建议。

也可以让它生成 PR 描述:

请根据这些改动生成一份 PR 描述,包括: 
1. 背景 
2. 修改内容 
3. 测试方式 
4. 风险点

这类任务很适合用强一些的模型,因为它需要理解上下文和变更意图。

常见问题

1. Continue 里请求失败怎么办?

可以先检查三个地方:

  • API Key 是否正确
  • apiBase 是否是 api.latix.ai/v1
  • 模型名称是否可用

如果返回 401,通常是 Key 问题。

如果返回模型不存在,通常是模型名写错,建议以 Latix 控制台模型列表为准。

2. 为什么不同模型效果差异很大?

这是正常的。

AI Coding 不是只看模型名,还要看任务类型。代码补全、复杂推理、长上下文理解、中文解释、文档生成,对模型能力要求都不一样。

建议至少准备两个模型:

  • 一个便宜快速的日常模型
  • 一个能力更强的复杂任务模型

3. 可以给团队统一配置吗?

可以。

你可以在团队内部维护一份 Continue 配置模板,里面写好:

  • API Base URL
  • 推荐模型
  • 常用 Prompt
  • 使用规范

但不要把个人 API Key 放进模板里。

4. Latix 和 Continue 的关系是什么?

Continue 是 VSCode 里的 AI Coding 插件。

Latix 是模型 API 入口。

两者配合后,你可以在 VSCode 里通过 Continue 调用 Latix 提供的模型,从而搭建自己的 AI Coding 工作流。

一个推荐配置思路

如果你刚开始搭建,可以先这样配置:

{
  "models": [
    {
      "title": "Latix Fast",
      "provider": "openai",
      "model": "gpt-4o-mini",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    },
    {
      "title": "Latix Code Strong",
      "provider": "openai",
      "model": "claude-3-5-sonnet",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    },
    {
      "title": "Latix Long Context",
      "provider": "openai",
      "model": "gemini-1.5-pro",
      "apiBase": "https://api.latix.ai/v1",
      "apiKey": "你的_Latix_API_Key"
    }
  ]
}

日常任务用 Latix Fast。

复杂重构和 Review 用 Latix Code Strong。

长文档、长上下文分析用 Latix Long Context。

这样既能控制成本,也能在关键任务上保证质量。

总结

Continue 给 VSCode 提供了一个开放、可配置的 AI Coding 工作台。

Latix 提供统一的 OpenAI-compatible API,让你可以通过一个入口接入 GPT、Claude、Gemini、DeepSeek、Qwen 等模型。

两者结合后,你可以搭建一套属于自己的 AI Coding 工作流:

  • 日常问答用快模型
  • 复杂重构用强模型
  • 长文本分析用长上下文模型
  • 固定 Prompt 沉淀团队规范
  • 在 VSCode 内完成代码解释、生成、Review 和文档整理

对于开发者来说,这种方式最大的价值不是“多一个聊天窗口”,而是把 AI 能力真正放进自己的开发流程里。

当 AI Coding 从临时提问变成稳定工作流,效率提升才会更明显。