背景
你好,我是 hockor,随着 AI code 辅助工具的日渐成熟,大家可选择范围也是越来越多,目前主流的Vibe Code 有三种形态
- 基于 vscode 二开的编辑器:cursor、trae、windsurf 等
- 在线开发工具: bolt.new、V0、MGX 等
- 插件:continue、cline、Augment 等
然而在一些企业内部,受限于各种原因(比如受限于企业安全问题不允许接入外部大模型、或者是没有🪜等原因)或者是你需要在飞机等网络不稳定的地方编码,我们希望有一个开发体验接近 Cursor,但是安全方向上能使用内部模型的编辑器,帮我们在日常开发中提效。
Cursor 核心能力拆解
那么既然我们希望有一个体验能接近 cursor 的工具,我们不妨先来梳理一下 cursor 的一些亮点功能
- Agent 能力:直接修改代码和运行命令等(比如创建目录/文件等)
- 代码提示:快速的根据上下文/注释提示代码
- 智能上下文能力:能自动的扫码仓库代码获取上下文信息,支持通过
@命令手动指定上下文 智能光标预测:预测下一个需要修改的地方- 网络搜索:使用 @Web 从互联网获取最新信息。Cursor 会为您搜索网络并使用最新信息回答您的问题。
- 文档集成:使用 @LibraryName 引用流行库的文档,或使用 @Docs → Add new doc 添加您自己的文档。
- MCP 协议支持。
那么抛开模型能力,我期望能有一个开发体验接近 Cursor 编程氛围的编辑器,最好能支持上面提到的这些功能点,那么这里,经过笔者自己这段时间的尝试,摸索了一套 cline+continue 的配置,除了无法做到智能光标预测以外,其他的点基本上都能支持,如果你也受限于各种原因无法使用外部模型或者是内部只允许使用开源模型(比如 qwen 系列等),那么可以尝试着使用一下。
当然,如果你有更好的方案,也麻烦再评论区告诉我,感谢~
模型准备
这里为了方便文章书写,采用了 ollama 本地部署模型的方式,而不是走的 openai compatible,如果你们公司内部走的openai compatible方式,cline+continue 也都是支持的,所以不用担心
- 我的硬件配置: M4 Pro 48G
- 安装的本地模型:qwen-2.5 coder 14B + qwen-2.5 coder 1.5B
安装方式不在赘述,首先从 ollama 官方下载,然后安装,然后就可以在命令行中执行以下命令安装模型即可
ollama run qwen2.5-coder:14b
ollama run qwen2.5-coder:1.5b
为什么会安装qwen2.5-coder:1.5b,主要是给 continue 做自动补全时使用,因为小模型计算速度更快,同时qwen2.5-coder本身是一个针对编程优化的模型,实际使用效果不错,同时 continue 官方也是建议使用这个模型
Continue 使用教程
官方地址:www.continue.dev/
核心能力
- 支持 MCP
- 支持 Agent 能力
- 支持
自动补全 - 支持
@命令添加上下文 - 支持链接访问 web 页面
- 支持选中局部代码操作
- 支持 Vscode 和 jetbrains 系列产品
安装+配置
- 插件市场搜索
continue即可,注意选择官方的 - 采用 yaml 配置的方式设置模型和 rules 等,也可以创建项目级的配置内容
以 mac 为例,默认的配置存储在 ~/.continue/config.yaml 文件中
比如我本地的配置如下:
name: Local Assistant
version: 1.0.0
schema: v1
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
- provider: search
- provider: web
rules:
- 关闭深度思考。
- 始终用中文回答问题
models:
- name: Qwen 2.5 coder 1.5b
provider: ollama
model: qwen2.5-coder:1.5b
roles:
- autocomplete
- chat
- apply
continue 有个比较好的地方在于可以为不同的模型设置不同的角色,假如你的电脑性能足够强悍,或者是你有多个模型的连接 apiKey,那么就可以多样化的配置,比如使用 qwen2.5-coder:1.5b专门用来做代码自动补全(类似于 copilot),使用qwen3专门做对话等。
界面介绍
工具栏从左往右依次是
- 不同角色的模型配置
- rules 配置
- Docs 配置
- Prompts 配置
- 内建 tools
- MCP servers 配置
自动补全功能演示
注意:已卸载 copliot,同时请注意右下角 continue 的标志在 running
@上下文
另外像选中部分内容指定修改等都是没问题的,这里就不再赘述了。
MCP
continue 的 MCP我在使用中一直不能很好的运行,后面还了硅基流动的 API KEY 用 qwen3 等模型也不行,不确定是官方插件问题还是什么其他原因,但是 cline 是没啥问题的,加上平时我也很少在 continue 上用 MCP,所以还是推荐大家用 cline 去使用 MCP。
Cline
官方地址:cline.bot/
核心能力:
- 支持 MCP
- 支持 ACT 模式和 Plan 两种模式
- 支持
@命令添加上下文 - 支持链接访问 web 页面
- 支持选中局部代码操作
整体来看 cline 和 Continue 的功能大差不差,但是 continue 的优势点在于他的自动补全功能,在日常编码中还是比较实用的,cline 的 ACT 模式则比较稳定,能调用各种 Agent 能力。
安装+配置
- vscode 插件中心搜索“cline”安装即可
- 点击设置,配置大模型地址
- API Provider: OpenAI compatible
- Base URL: api.siliconflow.cn/v1
- API KEY: {your key}
- Mode ID: Qwen/Qwen3-32B
申请硅基流动 API KEY
在使用本地部署的模型时,经常会遇到如下的报错
cline 因为使用复杂的提示和迭代任务执行,这对于能力较弱的模型来说可能具有挑战性。所以官方建议我们用更强的模型,这里我使用的硅基流动的:cloud.siliconflow.cn/models
登录以后创建一个密钥即可,然后输入上面配置中的信息就行了
界面基础认识
工具栏从左往右:
- @上下文
- 上传图像
- MCP 配置
- 规则和 prompt 配置
右侧的模式切换就是 Plan 模式和 Act模式,如果你只是想对话,可以使用 Plan 模式, 如果需要修改文件等,需要使用 ACT 模式
这里对于基础功能,我们就不再演示了
配置 MCP
点击 MCP 服务配置,可以自定义配置,比如我们配置一个最简单的文件管理的 MCP
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/username/Desktop"
],
"autoApprove": [
"list_directory"
]
}
}
}
然后我们调用一下
- 先让他查看下文件列表
- 让他创建一个文件
位置变动
因为习惯了 cursor 在右侧的对话面板,所以我习惯将 continue+cline 都挪到右侧去
总结
关于两个插件的介绍就到这里了,他们的能力和 cursor 对比起来
关键的限制和差异在于:
- 智能光标预测: 这是 Cursor 体感比较好的功能,在 VS Code 支持开源模型的插件中目前没有发现好的。
- UI 和工作流: 快捷键上有所不同,另外就是 2 个插件体感上略有割裂
- 如果用这套方案,也就意味着你可能无法使用一些闭源的高级模型,比如 gemini、Claude 等等,那么这套降级方案的模型能力也会大打折扣
但是我们组合方案的最大优势,也是要求的核心点,是能够安全地使用内部模型。Cursor 默认依赖外部模型,而 Continue + Cline 能连接到内部环境中的模型,满足我们的安全约束或者是其他的限制,如果你有需要,希望能给你做个参考~