4月24日起,GitHub Copilot 交互数据将默认用于 AI 模型训练
一、事件概要
GitHub 发出邮件通知,宣布将更新 Copilot 数据使用政策:
从 2025 年 4 月 24 日起,用户与 GitHub Copilot 的交互数据——包括输入、输出、代码片段和相关上下文——将默认用于训练和改进 AI 模型,除非用户主动选择退出。
二、关键变化
| 变化点 | 说明 |
|---|---|
| 生效时间 | 2025年4月24日 |
| 数据范围 | 输入、输出、代码片段、相关上下文 |
| 默认行为 | 默认用于训练 |
| 退出方式 | 需主动在设置中选择退出 |
| 历史偏好 | 之前已退出的用户偏好保留 |
三、GitHub 的解释
GitHub 表示:
"这种方法符合行业既定实践,将使我们的模型提供更具上下文感知的 AI 编码辅助。"
已验证的效果:
- 使用 Microsoft 交互数据进行测试
- 多种语言的接受率有明显提升
- 目标是提高 AI 助手的上下文理解能力
四、如何选择退出
步骤
- 进入 GitHub Account Settings(账户设置)
- 选择 Copilot
- 找到 "Allow GitHub to use my data for AI model training" 选项
- 取消勾选以退出数据训练
注意事项
- 如果你之前已经退出过,偏好会被保留,无需再次操作
- 建议在 4月24日前 完成设置
- 企业用户可能有不同的策略,需咨询管理员
五、这意味着什么?
对个人开发者
| 影响 | 说明 |
|---|---|
| 隐私风险 | 你编写的代码片段可能成为训练数据 |
| 商业代码 | 公司代码如果通过 Copilot 使用,可能被纳入训练 |
| 改进体验 | 模型会更懂你的代码风格和上下文 |
对企业用户
- 敏感代码风险:涉及商业机密的代码需谨慎
- 合规问题:需评估是否符合公司数据安全政策
- 建议:企业应制定明确的 Copilot 使用规范
六、行业趋势
GitHub 并非第一家这样做的公司:
| 公司 | 产品 | 数据使用政策 |
|---|---|---|
| OpenAI | ChatGPT | 默认使用,可退出 |
| Anthropic | Claude | 部分数据用于改进 |
| Gemini | 默认使用,可退出 | |
| Microsoft | Copilot | 默认使用,可退出 |
| GitHub | Copilot | 新增默认使用 |
趋势:AI 公司越来越倾向于默认使用用户数据改进模型,以追赶竞争对手。
七、开发者应该怎么做?
场景一:个人开源项目
- 可以接受:开源代码本身公开,用于训练影响较小
- 选择:可以保持默认,享受模型改进
场景二:公司商业项目
- 风险较高:敏感代码、业务逻辑可能被学习
- 建议:
- 立即选择退出
- 评估是否继续使用 Copilot
- 制定公司内部使用规范
场景三:个人隐私项目
- 中等风险:个人敏感信息可能被学习
- 建议:如果在意隐私,选择退出
八、我的建议
1. 了解你的代码流向
你的代码 → Copilot 交互 → GitHub 服务器 → 模型训练 → 未来 Copilot 版本
问自己:你是否介意这段路径?
2. 根据项目类型决定
| 项目类型 | 建议 |
|---|---|
| 开源项目 | 可接受默认 |
| 商业项目 | 建议退出 |
| 个人敏感项目 | 建议退出 |
| 学习/实验项目 | 可接受默认 |
3. 定期检查设置
- GitHub 可能调整政策
- 设置界面可能变更
- 建议每季度检查一次
九、总结
| 问题 | 答案 |
|---|---|
| GitHub 会用我的代码训练 AI 吗? | 是,4月24日起默认开启 |
| 我可以选择退出吗? | 可以,在设置中关闭 |
| 之前退出的设置保留吗? | 是,无需重新设置 |
| 这对开发有什么影响? | 模型可能变好,但隐私风险增加 |
十、行动建议
如果你在意代码隐私:
- 立即行动:进入 GitHub 设置,取消数据训练选项
- 检查企业政策:确认公司对 AI 工具的使用规范
- 考虑替代方案:本地运行的 AI 编码工具(如 Ollama + continue.dev)
如果你不在意:
- 保持默认,享受模型持续改进带来的体验提升
参考链接
本文基于 GitHub 邮件通知整理,信息截至 2026年3月26日
建议在 4月24日前完成设置检查