2026年4月7日,GitHub Copilot CLI正式支持BYOK和本地模型运行。Copilot终于不再是那个必须绑GitHub账号、必须走GitHub服务器的Copilot了。
支持哪些本地模型
目前官方明确支持:Ollama(最推荐)、vLLM、Foundry Local,以及任何兼容OpenAI API格式的第三方推理服务。云端Azure OpenAI、Anthropic API也在支持范围内。
模型硬性要求:支持Tool Calling + Streaming,推荐128K+上下文窗口。
三行代码接Ollama
bash
复制
export COPILOT_MODEL="ollama/qwen2.5-coder:14b"
export COPILOT_API_URL="http://localhost:11434/v1"
export COPILOT_API_KEY="ollama"
export COPILOT_OFFLINE="true"
bash
复制
copilot help providers
搞定。Copilot现在只和本地Ollama说话,GitHub服务器零接触。
接vLLM
bash
复制
export COPILOT_MODEL="your-model"
export COPILOT_API_URL="https://your-vllm-host/v1"
export COPILOT_API_KEY="your-key"
确保启动vLLM时开了--enable-auto-tool-choice。
接Azure OpenAI
bash
复制
export COPILOT_MODEL="gpt-4o"
export COPILOT_API_URL="https://your-resource.openai.azure.com/v1"
export COPILOT_API_KEY="your-azure-key"
export COPILOT_AZURE_DEPLOYMENT="your-deployment"
推理走你自己的Azure额度,不用再付Copilot那一份。
子代理自动继承
explore、task、code-review这些子代理,不需要单独配置,会自动用你设置的provider开箱即用。
坑点预警
模型不支持Tool Calling会直接报错,不会静默回退。Copilot离线模式不会自动回退到GitHub托管模型,配置错了就会报错——这对企业是好事,但新手要有点心理准备。