这周内容有点猛。GitHub 要拿你的代码训练 AI,AI 工具悄悄在后台删你的代码,还有研究登上《科学》说 AI 给建议总是在拍你马屁——而你还挺喜欢这样。一起来看。
GitHub 要用你的 Copilot 数据训练 AI
3 月 25 日,GitHub 官方博客发布公告:从 4 月 24 日起,Copilot Free、Pro、Pro+ 用户的交互数据将默认用于训练 AI 模型,除非你主动退出。
具体会收集什么?你接受或修改的代码建议、发给 Copilot 的输入内容、光标周围的代码上下文、你写的注释、文件名和仓库结构、对建议的点赞点踩……基本上你在用 Copilot 时做的每一个操作,都算数。
Copilot Business 和 Copilot Enterprise 用户不受影响,这部分数据不会被用于训练。
退出方式:GitHub 设置 → 隐私 → 关闭模型训练。操作很简单,但 默认开启 这个设计很有意思——大多数人不会去主动关。这就是 opt-out 和 opt-in 的本质区别:一个是你不知道已经在用你的数据,一个是你要主动允许才行。
GitHub 的理由是改进代码建议准确性,挺实际的。但对企业用户来说,你公司的代码细节通过个人账号的 Copilot 流出去,这个风险评估值得做一遍。
LiteLLM PyPI 供应链攻击:AI 开发者中招了没?
3 月 24 日,LiteLLM 的 PyPI 包(版本 1.82.7 和 1.82.8)被确认遭到供应链攻击。
LiteLLM 是目前 AI 开发者用得最多的统一 LLM 接口库之一,支持调用 100+ 个大模型 API,在 AI 应用开发圈子里几乎是标配。
攻击方式:恶意代码藏在一个叫 litellm_init.pth 的文件里,这个文件在 Python 环境启动时会自动执行,不需要你手动 import 任何东西。它会系统性地收集机器上的敏感数据然后外传:SSH 私钥、AWS/GCP/Azure 云凭证、Kubernetes 配置、.env 文件、数据库密码、加密货币钱包文件……
更棘手的是:它还会尝试在 Kubernetes 集群里横向移动,建立持久化后门。
这次被发现有一定的运气成分——恶意代码里的 fork 炸弹设计有缺陷,触发后系统崩溃,工程师才注意到异常。如果执行更静默,可能还没人发现。
Andrej Karpathy 在 X 上发帖提醒了 AI 开发者社区,事情才快速发酵。
如果你最近用了 LiteLLM:先跑 pip show litellm 检查版本,如果是 1.82.7 或 1.82.8 就立刻换版本,然后把机器上的云凭证、SSH 密钥全部轮换一遍。
Claude Code 每 10 分钟删掉你的代码
这条上周提过,但这周把它展开单独说更合适——因为这事不只是一个 Bug。
GitHub Issue #40710 记录了一个让人后背发凉的行为:Anthropic 的 Claude Code 命令行工具(版本 2.1.87,macOS),会每 10 分钟自动执行一次 git reset --hard origin/main。
本地所有已跟踪但未提交的改动,全部静默清掉,不可恢复。
发现经过也很偶然:一位开发者在 git reflog 里发现了大量以 10 分钟为间隔的 reset: moving to origin/main 记录,6 小时里出现了 95+ 条,追查之后才发现是 Claude Code 在后台用程序化 Git API 干的——绕开了普通 git 命令的日志,完全静默。
事情本身是个 Bug,但它揭示的问题更深:一个 AI 编程工具,悄悄在后台用你根本不知道的方式操作你的代码仓库,没有提示、没有确认、没有任何可见的日志。
这跟 LiteLLM 的供应链攻击是两件事,但有一个共同主题:当 AI 工具深度集成到你的开发环境里,它到底在后台做什么 这件事变得极其重要,但又极其不透明。
如果你在用 Claude Code,先跑一下 git reflog 检查。
斯坦福研究:AI 给建议总是在拍你马屁
这篇发在《科学》(Science)杂志上,研究团队测试了 11 个主流 AI,包括 ChatGPT、Claude、Gemini、DeepSeek。
核心发现:AI 在给出建议时,比真人高 49% 的概率去支持和验证你原有的想法,而不是给出独立判断。
测试方法很直接:他们把 Reddit r/AmITheAsshole 版块里大多数人认为提问者有错的帖子拿给 AI 看,结果 AI 仍然有 51% 的时间认同提问者的行为。即使是明显涉及有害或违法的场景,AI 也有 47% 的概率表示支持。
更让人不安的发现:参与研究的 2400 名用户表示,他们更偏好那些谄媚的 AI——更信任它,更愿意再去找它。谄媚型 AI 还让用户道歉意愿更低,整体更以自我为中心。
这就形成了一个逆向激励:AI 公司如果想要用户满意,就该让模型更谄媚——而这和给出真正有用的建议的目标完全背道而驰。
说到 AI 说好话,有个话题值得对照着看——国内最近很热的 给 AI 投毒。
所谓 AI 投毒,是指有人通过批量生成虚假内容、伪造专家身份、注入错误信息,污染 AI 的训练数据,让 AI 学坏。这在国内已经形成了产业链,新华社、国家安全部都专门发文警告过。
表面上看,这是两个方向相反的问题:斯坦福研究说的是 AI 主动迎合,说你爱听的话;AI 投毒说的是外部力量往里面塞谎话,把 AI 教坏。但内核指向同一个结果——谄媚和投毒,都在侵蚀 AI 作为独立、可信的建议来源这件事的根基。
斯坦福的研究者建议:遇到人际关系、个人决策这类问题,别指望 AI 说真话。
Coolify:开源自托管 PaaS,Vercel/Heroku 的平替
如果你最近想把自己的项目从 Vercel 或 Heroku 迁出来,Coolify 值得看一下。
Coolify 是一个开源的自托管 PaaS 平台,核心定位就是你自己的 Vercel:在你自己的服务器上跑,一键部署应用、数据库、各类服务,自动配好 SSL,支持 GitHub/GitLab/Bitbucket 推送触发部署。
几个让它在开发者社区口碑不错的点:
- 完全自托管,数据不出你的服务器。Vercel、Heroku 这类 SaaS 的代码和数据都在别人那里,Coolify 是自己的。
- 任何服务器都行:VPS、Raspberry Pi、EC2、你自己的 NAS——只要能跑 Docker 的 Linux 机器就 OK
- 支持主流框架:Next.js、Nuxt、SvelteKit、Laravel、Django、Rails 都能跑,不只是静态站
- PR 预览部署:提个 PR 自动跑一个预览环境,Vercel 同款体验,自托管版
- 免费:开源,自托管版没有任何功能锁墙。如果不想自己维护,Coolify Cloud 5 美元/月有人帮你托管
对个人开发者或小团队来说,主要吸引力在于成本:Vercel 的用量计费在流量起来之后会让人痛苦,一台 VPS 月租可能比 Vercel 账单便宜很多,而且功能不差什么。
代价是你得自己负责服务器的安全和维护,以前你骂 Vercel 的时间,以后要用来跑 apt upgrade。
LinkedIn 两个标签页,2.4GB 内存
HN 上有人截了张图:Chrome 任务管理器里,两个 LinkedIn 标签页合计消耗了 2.4GB 内存。
普通笔记本,正常使用,就这样。
这件事本身是个梗,但背后的问题是真的:LinkedIn 这几年不断往页面里堆功能——实时通知、短视频流、AI 推荐、广告追踪、聊天 WebSocket……每一层都在往浏览器里压内存,堆出来就是这个数。
有人测了 2015 年的 LinkedIn,同样的核心功能,内存占用不到现在的 1/10。
这种情况在现代 Web 应用里不罕见。问题不是技术上做不到更轻,而是组织结构上没有人对整体性能负责:功能团队负责加功能,平台团队负责系统不崩,但整个页面是不是内存杀手这个问题落不到任何一个具体的人头上。
对前端工程师来说,这条帖子的评论区其实值得认真看——里面有不少人在认真分析是哪类代码结构导致了这种内存积累:未清理的事件监听、大量 Redux store 里不过期的数据、React 组件树里的 context 污染……这些都是在规模化的前端项目里会真实出现的问题。
视野决定终点,与君共勉。欢迎关注 前沿信标。