AI 前沿动态|模型与安全双线更新

46 阅读3分钟

今天分享给你是因为这两件事都会直接影响开发生产力与 AI 安全防护策略。

🚀 1)Z.ai 发布开源大模型 GLM‑4.7,直接把“能用在真实开发工作流”的能力推到了开源阵营的前列

GLM-4.7: Advancing the Coding Capability

GLM-4.7 - Overview - Z.AI DEVELOPER DOCUMENT

GLM-4.7 - Overview - Z.AI DEVELOPER DOCUMENT

  • 智谱AI(Z.ai)在 2025‑12‑23 正式开源了旗舰大模型 GLM‑4.7,定位“真实开发工作流”,强调从需求理解、任务分解到可执行代码输出的能力提升。

  • 在多项主流评测中,特别是在 WebDev/Coding Arena 等真实编码基准里,它进入开源第一梯队,被部分指标超越甚至接近顶级闭源模型。

  • GLM‑4.7 强调长程任务规划、工具协同与代码执行可靠性,能处理混合语言项目、终端任务和结构化输出,更适合工程使用场景而不仅是单段生成。

  • 官方支持通过 API 及开源权重接入开发者生态,并已在 z.ai 平台上线体验。

👉 对技术团队意味着什么
新模型已不只是“会写代码的助手”,而是在编码流程中可以承担更复杂任务的协作者,对提升开发效率、降低 bugs 和加速 feature 交付有实质帮助。

🔐 2)OpenAI 明确指出:面向网页/浏览器代理的 Prompt Injection 是长期、难以彻底解决的风险

![What Is a Prompt Injection Attack? Examples & Prevention ...

Down Arrow Button Icon

![What Is a Prompt Injection Attack? Examples & Prevention ...

  • OpenAI 在 2025‑12‑22 的安全博文 中强调,随着 AI 浏览器代理(如 Atlas)变得更强,它们也更容易遭受“prompt injection”攻击,这类攻击可能永远无法完全根除。

  • Prompt injection 指的是恶意指令被隐藏在网页/邮件/内容中,AI 代理误以为是正常指令然后执行,可能导致敏感数据泄露或行为偏离。

  • OpenAI 表示已有强化措施(对抗训练、自动发现攻击循环、层级防护等),但仍视其为长期安全挑战,需要不断动态加强而不是一次性解决。

  • 实践建议包括最小权限原则、来源白名单、快速响应机制及在关键操作前要求用户确认等。

👉 为什么这个风险难以消除
prompt injection 本质上类似于社交工程:它利用模型对输入的信任机制,攻击面随着代理访问内容的范围扩大而变得很难被完全封堵。

如果要结合起来看:GLM‑4.7 代表了开源模型在真实开发流程中的跃升实力,而 prompt injection 的安全讨论则提醒我们,在把这些强大工具直接投入生产环境与自动化工作流时,安全防护必须与能力提升同步推进。