这真是一段跌宕起伏的“踩坑与破局”经历!从一开始的配置摸索,到死磕报错日志,再到最终通过降级版本解决这个隐蔽的 Bug,这个过程非常有价值。
最近 AI 辅助编程有多火不用多说,Cursor 确实好用,但每个月 20 刀的订阅费加上模型额度限制,对于咱们这种想高强度用 Claude 3.5 Sonnet / 4.6 写代码的重度用户来说,肉疼且不够自由。
于是,我把目光转向了 VS Code 上的开源神器 —— Continue 插件。它的核心优势就是允许你接入自己的 API Key。只要你有靠谱的 API 聚合平台,就能在 VS Code 里实现“全模型自由”。
理想很丰满,现实很骨感。在配置 Continue 的过程中,我结结实实地踩了一个巨坑,折腾了整整一天。今天把这个极其隐蔽的排坑过程分享出来,希望能帮大家避雷。
🚨 痛点时刻:诡异的 404 报错与消失的路径
我的诉求很简单:在 Continue 的 config.yaml 里配置我常用的第三方 API 端点,然后在侧边栏用 GPT-5.4 或者 Claude 来对话。
我按照官方文档,写好了标准的 OpenAI 格式配置:
YAML
models:
- name: "Cumob GPT"
provider: "openai"
model: "gpt-5.4"
apiKey: "sk-xxxxxx"
apiBase: "https://api.cumob.com/v1"
满心欢喜地回车发送消息,结果 Continue 插件直接甩给我一个无情的报错:
Error handling model response... Model/deployment not found
我非常确定我的 API 平台是支持这个模型的,用 Postman 测试也完全没问题。那问题出在哪?
我按下了 Ctrl + Shift + U 调出 VS Code 的输出窗口,切到 Extension Host 的 Console 日志,终于发现了端倪。日志里赫然写着:
[@continuedev] error: HTTP 404 Not Found from https://api.cumob.com/v1/responses
{"context":"llm_fetch","url":"https://api.cumob.com/v1/responses","method":"POST"...}
破案了!
标准的 OpenAI 聊天接口路径应该是 /chat/completions。但我发现,Continue 插件(在 1.2.21 这个版本下)内部逻辑有 Bug,它在拼接自定义 apiBase 时,竟然强行去请求了一个 /responses 的幽灵路径!
因为第三方聚合 API 平台根本不存在 /responses 这个非标路径,自然就返回了 404 错误。
🛠️ 艰难的抓虫:那些失败的尝试
为了纠正插件的这个“自作聪明”的行为,我尝试了各种方法,试图骗过它的内部路径拼接逻辑:
- 强制指定协议:加上
apiType: "openai"。失败,依然 404。 - 关闭流式传输:加上
stream: false。失败,依然 404。 - 通过环境变量覆盖:加上
requestOptions: { headers: {...} }和useOpenAIAdapter: false。日志里甚至报出了底层流处理字符越界转换的离谱错误(TypeError: Cannot convert argument to a ByteString...)。
折腾到半夜,我突然意识到:这绝对是 Continue 当前版本(1.2.21)对自定义 API Base 处理的底层逻辑有问题,越挣扎陷得越深。
💡 终极破局方案:版本回退,海阔天空
既然最新版逻辑有坑,那就退一步。
我果断在 VS Code 的扩展选项里,点击 Continue 插件旁边的齿轮,选择 “安装另一个版本...” (Install Another Version) ,把版本降级到了 1.2.10。
重启 VS Code。满血复活!之前的配置一行没改,消息瞬间顺畅发出,代码补全如丝般顺滑,再也没有去瞎请求 /responses 路径。
🚀 成果展示:低成本打造你的专属 AI 编程工作流
解决掉这个恶心的环境 Bug 后,终于迎来了爽快时刻。我直接在配置里把市面上最强的模型全部配齐了。
给大家抄个作业(Continue 1.2.10 稳定版配置):
YAML
name: My Config
version: 1.0.0
schema: v1
models:
# 敲代码主力:Claude Sonnet
- name: "Claude 4.6 Sonnet"
provider: "openai"
model: "claude-sonnet-4.6"
apiKey: "你的_API_KEY"
apiBase: "https://api.cumob.com/v1"
# 日常问答/通用逻辑:GPT-5.4
- name: "GPT-5.4 UCMOB"
provider: "openai"
model: "gpt-5.4"
apiKey: "你的_API_KEY"
apiBase: "https://api.cumob.com/v1"
# 极致推理:Claude Opus
- name: "Claude 4.6 Opus"
provider: "openai"
model: "claude-opus-4.6"
apiKey: "你的_API_KEY"
apiBase: "https://api.cumob.com/v1"
# Tab 键代码自动补全(强烈建议用小模型,速度极快,体验拉满)
tabAutocompleteModel:
name: "Qwen 3.5 Autocomplete"
provider: "openai"
model: "qwen3.5-2b"
apiKey: "你的_API_KEY"
apiBase: "https://api.cumob.com/v1"
ui:
showOnboarding: false
写在最后:
如果你也想打造这样一套完全属于自己的 AI 编程流,不再受限于单个厂商的配额和高昂的订阅费,强烈建议试试 Continue (记得降级到 1.2.10) + 自定义 API 平台 的组合。
希望这篇文章能帮你省下宝贵的 Debug 时间,早点下班!