continue+ollama/api
- 安装
扩展搜索continue安装
侧边栏会增加continue图标
- 修改配置文件
点击齿轮按钮--→config
deepseek代码补全参考:api-docs.deepseek.com/zh-cn/guide…
注意其中apibase没有加beta后缀
name: Local Config
version: 1.0.0
schema: v1
models:
- name: Deep seek V4
provider: openai
model: deepseek-v4-flash
apiKey: **your-apikey**
apiBase: https://api.deepseek.com
roles:
- chat
- edit
- apply
- summarize
- name: DeepSeek
provider: deepseek
model: deepseek-chat
apiKey: **your-apikey**
apiBase: https://api.deepseek.com
roles:
- autocomplete
contextLength: 128000
defaultCompletionOptions:
temperature: 0.0
maxTokens: 256
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
也可以调用本地模型
ollama:ollama.com
models:
# 对话模型
- name: "Qwen2.5-Coder 7B (对话)"
provider: ollama
model: "qwen2.5-coder:7b"
# 自动补全模型
- name: "Qwen2.5-Coder 7B (补全)"
provider: ollama
model: "qwen2.5-coder:7b"
roles: ["autocomplete"]
PS:当前continue版本的自动补全格式如上所示,如果使用AI建议的tabAutocompleteModel格式暂不支持
# 对话模型
models:
- name: "Qwen2.5-Coder 7B (对话)"
provider: ollama
model: "qwen2.5-coder:7b"
# 自动补全模型(确保加上这一项)
tabAutocompleteModel:
provider: ollama
model: "qwen2.5-coder:7b"
新建文件测试自动补全效果,可以使用快捷键 comman+shift+P输入: "Developer: Toggle Developer Tools" (开发者:切换开发者工具)打开console面板查看vscode的报错信息,关注 [Extension Host] 开头的信息即可。
最终效果图
速度对比 API还是比本地慢一些。