Cline+DeepSeek使用记录

1,923 阅读2分钟

VSCode CLine DeepSeek 使用记录

本文将分享我在使用 VSCode + Cline/Roo Cline/Aline + Continue + deepseek-chat/deepseek-r1 组合进行开发时的经验总结和优化建议。

1. 上下文长度与Token消耗问题

1.1 Cline 的 Token 消耗

  • 问题描述:Cline 的上下文长度消耗较大,即使经过 Roo Cline 和 Aline 优化后,Token 消耗量仍然较高(实测项目可降低10-20%)

  • 优化建议

  - 只能一个模块一个模块的编写

  - 上下文不带大文件

2. 性能与响应速度

2.1 上下文长度对响应速度的影响

  • 现象

  - 任务开始时响应速度极快,准确率高

  - 随着交互轮数增加,响应速度逐渐变慢(deepseek客服有回复:cline就是有这个问题) 一个问题10min+没完事(这谁受得了)

  - 高峰期可能出现服务不可用情况(最近两三次)

  • 优化方案

  - 直接重启vsocde(reload window) - 这个不一定有用 感觉是deepseek的限制,断网一会能再开

  - 使用 deepseek-r1 和 deepseek-chat (那个模型卡了切换成另一个 - 实测有效)

2.2 模型选择策略

  • deepseek-r1

  - 优点:整体准确率较高

  - 缺点:响应速度较慢(部分问题需要长时间思考)

  • deepseek-chat

  - 优点:响应速度快

  - 缺点:准确率相对较低(代码错误率高,得不停的人工矫正)

  • 推荐使用方案

  - 代码补全(我用的continue):使用 deepseek-chat 模型

  - 技术问答:使用 deepseek-r1 模型(不关心速度)

  - Cline 使用建议:

    * Ask 模式:使用 deepseek-r1

    * Code 模式:使用 deepseek-chat

  ```

3. 本地部署的话

3.1 Ollama

  • Cline插件只对特化的模型有用(eg: qwen2.5-coder-cline) - 有小问题,但是本地部署-突出一个快。