4月24日,一场悄无声息的"数据收割"即将开始
3月25日,GitHub官方甩出一则公告:从4月24日起,Copilot用户的交互数据——包括你敲进去的每一行代码、每一次修改、甚至光标周围的注释——都将默认被拿去训练AI模型。
而且,这事还不是小打小闹。受影响的可是所有个人用户:Free版、Pro版、Pro+版——一个都跑不掉。
Business和Enterprise用户完全不受影响。
GitHub给你画了个大饼:让你的代码帮AI"进化"
GitHub的理由听起来还挺冠冕堂皇的:你看,我们用微软内部员工的数据训练模型,代码建议采纳率都提升了!现在想让所有开发者都参与进来,一起把Copilot变得更聪明。
翻译一下:你的代码、你的思路、你踩过的坑,都会成为AI的"经验"。下次别人遇到类似问题,Copilot可能就会给出你写过的代码。是不是感觉莫名心酸?
他们还贴心地强调:放心,数据只在GitHub和微软内部共享,不会给第三方。
但问题是,这真的让你安心吗?
开发者社区炸锅了:97个👎 vs 4个🚀
GitHub社区的投票结果相当残酷:97个踩,只有4个火箭。这态度,简直比甲方改需求还直接。
有位开发者直接怒怼:"我的员工没授权把公司代码拿出来训练AI,凭什么GitHub能默认收集?万一有个新来的同事没关这个选项,我们整个公司的代码就'裸奔'了?"
还有人吐槽SOC 2合规都过不了:"现在都不知道谁能访问我们的代码,这还怎么保证安全?"
热评第一的那句话:"真正'自豪地去征求用户同意'的方式,应该是让用户主动选择加入,而不是像现在这样,发个通知就默认开启,让大家被动选择退出。"
说得真好,可惜GitHub可能没听见。
被收集的,不仅仅是代码
GitHub在公告里列了长长的清单:输入、输出、代码片段、上下文、注释、文件名、仓库结构、导航模式……甚至你的点赞点踩,都在收集范围内。
最狡猾的是"静止状态"这个概念。GitHub说:"我们不会收集静止状态的私有仓库代码。"
但等你用Copilot的时候,你当前光标位置的代码片段、上下文,都会作为"交互数据"被发送出去。这些数据,就属于"可以被训练"的范畴。
所以,你在私有仓库里写的核心算法、商业逻辑、甚至临时写进去的测试数据,都可能成为AI的训练素材。
企业用户,你以为你安全了?
Business和Enterprise用户确实不受新规影响,但如果你的团队用的是个人Copilot账户呢?
现实是:很多中小团队就是这么干的。个人版便宜又方便,谁会去申请企业版?
结果就是:组织无法强制控制个人账户的设置。只要有一个员工没关opt-out选项,团队数据就可能泄露出去。新来的同事、外包开发者、临时协作者……任何一个疏忽,都可能让整个项目暴露。
还能怎么办?三步拯救你的代码
第一步:打开设置
第二步:关闭训练选项
找到"Allow GitHub to use my data for AI model training",选择Disabled。
第三步:重启编辑器
如果你是组织管理员,还能强制全员退出:组织设置 → Copilot → 启用"Enforce opt-out for all members"。
重点提醒:如果你之前已经关闭过数据收集选项,那就不用再操作了,你的偏好会保留。
是时候重新选择了⚖
这次政策调整,让很多开发者开始认真思考一个根本问题:我愿意为了代码提示的便利,让我的代码成为别人的训练数据吗?
有人选择退出,继续使用Copilot。有人开始寻找替代方案。还有人痛下决心:是时候迁移到更注重隐私的平台了。
信任的边界在哪里?
GitHub Copilot从推出到现在,确实改变了很多开发者的工作方式。更好的代码提示、更快的开发效率,这些都是实打实的好处, 但近期的 PR 里添加广告、到如今的默认拿取用户数据训练。
GitHub说:"我们相信AI辅助开发的未来,依赖于像你这样的开发者的真实交互数据。"
但他们忘了问一句:开发者,你愿意吗?
从4月24日开始,每个使用个人版Copilot的开发者都要做出选择——要么主动退出,要么让自己的代码成为AI的一部分。
而对于那些把代码视为资产的团队来说,现在也许是时候认真思考:GitHub是否还值得长期托付。
**你的代码,还安全吗?**❓