4 月 22 日,OpenAI 发布了 Workspace Agents —— ChatGPT 从"个人助手"正式迈向"团队工作流引擎"。这不是简单的 GPTs 升级,而是一次产品定位的根本转变。
从 GPTs 到 Workspace Agents:变了什么
GPTs 的问题一直很明确:它本质上是一个带 system prompt 的对话模板,能做的事情有限,共享机制也很粗糙。Workspace Agents 直接解决了这些痛点:
后台持续运行。 Agent 不再需要你盯着对话窗口。它跑在 Codex 驱动的云端沙盒里,有独立的文件系统、代码执行环境和工具连接能力。你可以设定定时触发,或者让它在 Slack 里自动响应。
团队共享和权限控制。 一个团队创建的 Agent,其他成员可以直接使用。管理员能控制 Agent 可以访问哪些工具、连接哪些数据源。这解决了 GPTs 时代"每个人自己搞一套"的混乱。
多步骤工作流。 Agent 能写代码、调 API、读文件、记住上下文,跨多个步骤完成复杂任务。不再是"一问一答"的模式。
五个内部案例,暴露了真实意图
OpenAI 给出的五个内部使用案例很有意思:
- Software Reviewer:审核员工软件申请,对照审批政策,自动提 IT 工单
- Product Feedback Router:监控 Slack 和论坛反馈,分类后生成周报
- Weekly Metrics Reporter:每周五自动拉数据、画图、写总结
- Lead Outreach Agent:调研潜在客户,打分,生成个性化跟进邮件
- Third-Party Risk Manager:评估供应商风险,生成结构化报告
这五个案例有一个共同特征:全是企业中间层的重复性工作。不是创造性工作,不是战略决策,而是那些"必须有人做但没人想做"的流程性任务。
OpenAI 的意图很清晰 —— 它不再满足于做一个聊天机器人,而是要吃掉企业内部的 RPA(流程自动化)市场。
几个值得关注的设计决策
创建方式是对话式的。 你在 ChatGPT 侧边栏点 Agents,用自然语言描述工作流,ChatGPT 帮你一步步搭建。这比写代码或拖拽流程图的门槛低得多。问题是:自然语言描述的精确度够不够?复杂工作流会不会在"翻译"过程中丢失关键细节?
Slack 是第一个外部部署渠道。 这意味着 OpenAI 认为 Agent 的价值不在于一个独立入口,而在于嵌入已有的工作场景。先 Slack,后面大概率是 Teams、Email、Jira。
GPTs 暂时保留。 原文用了"soon, we'll make it easy to convert GPTs into workspace agents"。翻译一下:GPTs 的生命周期进入倒计时了。
冷静看几个问题
1. 企业数据安全。 Agent 能连接"dozens of tools",能读取内部数据。这在企业 IT 合规层面是巨大的挑战。一个配置不当的 Agent 可能把敏感数据通过 LLM 传到不该去的地方。
2. 可靠性。 "在后台持续运行的 Agent"听起来很美,但 LLM 驱动的多步骤工作流本身就有不可预测性。每一步都可能出错,错误会累积。75% 的企业报告 AI 项目有两位数的失败率 —— 这个数据在 Agent 场景下只会更高。
3. 和 Codex 的关系。 Workspace Agents 底层跑在 Codex 上。OpenAI 在两天前刚宣布 Codex 企业版扩展。这两个产品线的关系是什么?Workspace Agents 是 Codex 的消费者入口?还是会逐渐合并?
我的判断
Workspace Agents 的方向是对的 —— AI Agent 的价值确实在于自动化团队工作流,而不是做更聪明的搜索引擎。但"方向对"和"能做好"之间隔着巨大的工程挑战。
目前还是 Research Preview 阶段,只对 Business/Enterprise/Edu 开放。真正的考验在于:当成千上万个 Agent 同时跑在企业内部时,可靠性、安全性和可观测性能不能跟上。
不过有一点是确定的:AI Agent 正在从"个人工具"走向"组织基础设施"。这个趋势不可逆。
如果你在多个 AI 模型之间频繁切换,推荐试试 OfoxAI(ofox.ai)— 一个账号搞定 Claude、GPT、Gemini 等主流模型,省去多平台来回跳转的麻烦。