VSCode CLine DeepSeek 使用记录
本文将分享我在使用 VSCode + Cline/Roo Cline/Aline + Continue + deepseek-chat/deepseek-r1 组合进行开发时的经验总结和优化建议。
1. 上下文长度与Token消耗问题
1.1 Cline 的 Token 消耗
-
问题描述:Cline 的上下文长度消耗较大,即使经过 Roo Cline 和 Aline 优化后,Token 消耗量仍然较高(实测项目可降低10-20%)
-
优化建议:
- 只能一个模块一个模块的编写
- 上下文不带大文件
2. 性能与响应速度
2.1 上下文长度对响应速度的影响
- 现象:
- 任务开始时响应速度极快,准确率高
- 随着交互轮数增加,响应速度逐渐变慢(deepseek客服有回复:cline就是有这个问题) 一个问题10min+没完事(这谁受得了)
- 高峰期可能出现服务不可用情况(最近两三次)
- 优化方案:
- 直接重启vsocde(reload window) - 这个不一定有用 感觉是deepseek的限制,断网一会能再开
- 使用 deepseek-r1 和 deepseek-chat (那个模型卡了切换成另一个 - 实测有效)
2.2 模型选择策略
- deepseek-r1:
- 优点:整体准确率较高
- 缺点:响应速度较慢(部分问题需要长时间思考)
- deepseek-chat:
- 优点:响应速度快
- 缺点:准确率相对较低(代码错误率高,得不停的人工矫正)
- 推荐使用方案:
- 代码补全(我用的continue):使用 deepseek-chat 模型
- 技术问答:使用 deepseek-r1 模型(不关心速度)
- Cline 使用建议:
* Ask 模式:使用 deepseek-r1
* Code 模式:使用 deepseek-chat
```
3. 本地部署的话
3.1 Ollama
-
Cline插件只对特化的模型有用(eg: qwen2.5-coder-cline) - 有小问题,但是本地部署-突出一个快。