当我正在使用GitHub Copilot进行Vibe coding时,竟成了AI的养料!

0 阅读4分钟

近期,GitHub 正式发布重磅政策调整,引发全球开发者社区强烈争议。自 4 月 24 日起,Copilot Free、Pro、Pro + 个人用户与工具的交互数据,将默认用于 AI 模型训练,用户需手动操作才能退出,而企业版用户不受影响。这一 “默认纳入、主动退出” 的模式,直接触碰了开发者的数据隐私底线,让大量用户感到被冒犯。

image.png GitHub 此次调整范围明确,仅针对个人免费与付费用户,Copilot Business、Enterprise 用户,以及免费获取 Pro 权限的师生群体均被排除在外。官方给出的理由是,Copilot 用户规模已达 2600 万,需要更多真实世界交互数据,覆盖更多编程场景,提升模型实用性。GitHub 还提及,此前用微软、自身员工数据训练已取得效果,因此扩大数据来源。

可用于训练的数据范围十分广泛,涵盖用户输入代码、修改后的输出、代码上下文、注释文档、文件结构、交互行为等全部信息。即便私有仓库静态内容不被直接使用,用户使用 Copilot 时产生的实时交互数据,仍会被纳入训练,除非主动退出。数据仅在微软、GitHub 内部及合规服务商间使用,不会售卖或提供给第三方模型厂商。GitHub 还强调,会通过技术手段过滤密钥、密码等敏感信息,回应数据泄露担忧。

但开发者对这套解释并不买账,核心矛盾集中在退出机制极不友好。官方指引的退出路径模糊,设置入口隐藏在页面底部,文字描述与实际操作不符,用户吐槽 GitHub 故意设置障碍,赌多数人找不到退出选项。同时,协作者数据归属、组织账号模糊判定等问题,也让用户陷入困惑,担心自己的代码因他人未退出而被滥用。

image.png 更让开发者不满的是,GitHub 采用 “默认同意” 的行业惯例,却违背了隐私保护的基本逻辑。用户普遍认为,数据使用应默认关闭,自愿开启才合理,这种把用户数据当作产品资源的做法,彻底消耗了社区信任。不少开发者直言已完成退出操作,甚至考虑注销账号、转向其他 Git 平台,这场政策调整成为用户流失的催化剂。

GitHub 还试图用 “微软、Anthropic、JetBrains 均有类似做法” 来平息争议,强调自身并非特例,同时否认竞争优势依赖用户数据,称是为了适配多样化开发需求。但这套说辞未能缓解舆论压力,反而让开发者更反感企业以行业惯例为由,侵犯个人数据权益。

有用户直言:

首先,它一上来就给出了具有误导性的“退出”操作说明。 如果我进入账户设置,再点 Copilot,实际上什么都不会发生,只是那个列表项展开而已。我根本没法像邮件里写的那样,在那里“选择是否允许将你的数据用于 AI 模型训练”。

其次,真正可以退出的设置项,文字表述和邮件里的说明也对不上。 所以他们就是在故意把人绕晕,赌很多用户根本找不到这个设置。更离谱的是,它还被放在设置页面最底部。

第三,我也不清楚,如果我的仓库里加了协作者,而他们没有选择退出,那我的代码会不会也被拿去用? 总之,这次政策调整烂透了。也许是时候看看别的 Git 平台了。我对 GitHub 也算有些经验,确实该试试别家了。这件事反而成了一个催化剂。贪婪是没有尽头的。

而且这种事情本来就不该默认开启。 账户应该默认是退出状态,只有在你自己愿意的情况下,才主动打开。 Policy news: github.blog/news-insigh…