Copilot CLI × BYOK:如何把Copilot接进你的本地模型全家桶

0 阅读1分钟

2026年4月7日,GitHub Copilot CLI正式支持BYOK和本地模型运行。Copilot终于不再是那个必须绑GitHub账号、必须走GitHub服务器的Copilot了。

支持哪些本地模型

目前官方明确支持:Ollama(最推荐)、vLLM、Foundry Local,以及任何兼容OpenAI API格式的第三方推理服务。云端Azure OpenAI、Anthropic API也在支持范围内。

模型硬性要求:支持Tool Calling + Streaming,推荐128K+上下文窗口。

三行代码接Ollama

bash

复制

export COPILOT_MODEL="ollama/qwen2.5-coder:14b"
export COPILOT_API_URL="http://localhost:11434/v1"
export COPILOT_API_KEY="ollama"
export COPILOT_OFFLINE="true"

bash

复制

copilot help providers

搞定。Copilot现在只和本地Ollama说话,GitHub服务器零接触。

接vLLM

bash

复制

export COPILOT_MODEL="your-model"
export COPILOT_API_URL="https://your-vllm-host/v1"
export COPILOT_API_KEY="your-key"

确保启动vLLM时开了--enable-auto-tool-choice。

接Azure OpenAI

bash

复制

export COPILOT_MODEL="gpt-4o"
export COPILOT_API_URL="https://your-resource.openai.azure.com/v1"
export COPILOT_API_KEY="your-azure-key"
export COPILOT_AZURE_DEPLOYMENT="your-deployment"

推理走你自己的Azure额度,不用再付Copilot那一份。

子代理自动继承

explore、task、code-review这些子代理,不需要单独配置,会自动用你设置的provider开箱即用。

坑点预警

模型不支持Tool Calling会直接报错,不会静默回退。Copilot离线模式不会自动回退到GitHub托管模型,配置错了就会报错——这对企业是好事,但新手要有点心理准备。