别让 AI 成了你的“后门”:一个被忽视的安全盲区

77 阅读2分钟

今天看到了一篇讲述 Claude Code Skills “投毒”的文章。

Claude Code Skills 投毒事件全解析

忽然发现,虽然自己一直都在注意 AI 使用的工程化,但却没怎么关注安全方面的内容。

今天就和大家聊聊 AI 安全方面的思考。

不要中了 AI 的毒

首先就是我看到的文章里提到的 Claude Code Skills “投毒”的内容。

原来,病毒是通过软件下载、脚本嵌入等方式给我们植入,现在有了 AI,就有了新的传播途径。

比如,我看的文章中提到的例子。

Claude Code 限制了 /app/workspace 开头的文件访问,但攻击者可以构造 /app/workspace/../../../etc/passwd 这样的路径。

路径确实符合 /app/workspace 开头,但实际却获取到了根目录下的关键文件 /etc/passwd

虽然,这个漏洞非常容易被修复,但 AI 的出现无疑是开辟了另一个攻防的战场,这个战场还有很多远比这个漏洞严重的情形。

但目前来看,目前防守方的研究似乎远落后于攻击者。

因此大家使用各类复杂的提示词、开源 Agent,一定要注意甄别,不要中了 AI 的毒。

提升自己的保障手段

上面聊了对于外来风险的防护,接下来,我们聊一下,万一发生风险,如何降低损失。

最关键的一句话大家一定要谨记:AI 并不可靠,因此,不要完全相信 AI

虽然,我是一个 AI 乐观主义者,并且,AI 已经深深地影响了我的各类工作。

但我依然要提醒大家,使用 AI 不能完全放手,我们必须要通过各种工程化手段不分解、把控、审阅。

拿我应用最多的 AI 编程来说。

第一,我不期望 AI 直接完成一个系统,不仅仅是因为担心现有模型能力无法完成,更多的是考虑不分解工作,我可能没有能力或精力去把控生成的代码质量。

第二,即使是分解后的任务,我依然会通过多次审查确认(Cursor/TRAEIDE 提供)、多步快跑提交 Git 等方式保证每次的不稳定代码最小化。

注:其实,现有模型很多都可以工作10个小时以上,完全可以一口气完成一项工作。

因此,对于我们的重要资料,还是建议大家采用一些传统方式去保护,比如版本控制、物理备份等。

结语

今天,仅仅是我意识到 AI 的安全问题后,给大家同步提个醒。

后续会再给大家详细分享下 AI 安全相关的具体措施,敬请期待~