大模型不再陪你聊天了:2026 年,AI 公司开始卖“数字员工”
如果你还把 AI 想成一个聊天框,2026 年的变化就会显得有点突然。
过去,AI 公司卖的是“你来问,它来答”。你问一段代码为什么报错,它解释;你让它总结一份材料,它压缩;你让它写邮件,它给你一版措辞。这个阶段的 AI 很像一个聪明顾问,厉害,但还坐在屏幕里。
现在,AI 公司想卖的东西变了。
它们不再只说模型有多聪明,而是开始说:我可以帮你做 pitchbook,帮你筛 KYC 文件,帮你关月账,帮你调度多个模型跑长任务,帮你把 Agent 接进 CRM、数据仓库、Slack、邮箱和内部系统。换句话说,它们卖的不是“一个会聊天的大脑”,而是一个能进公司流程里干活的执行单元。
这就是“数字员工”这个词真正刺眼的地方。
图:作者制图。信息来源见文末参考来源。
这不是科幻,是产品形态变了
5 月 5 日,Anthropic 发布了面向金融服务的 10 个 ready-to-run Agent 模板,覆盖投行、研究、财务运营、合规等工作。它列出来的任务很具体:搭 pitchbook、准备会议材料、读财报电话会、搭金融模型、做估值复核、总账核对、月结、财报审阅、KYC 筛查。
如果只看这些名词,你会发现它们一点都不“科幻”。这不是机器人端咖啡,也不是电影里的通用智能。这些工作原本就存在于银行、基金、审计、投研和财务部门里,过去靠分析师、运营、合规和财务团队一点点推进。现在 AI 公司要做的是:把一部分重复、耗时、结构化但又需要上下文的工作,包装成可部署的 Agent 模板。
Anthropic 的关键表述不是“我们的模型更聪明”,而是每个模板由三类东西组成:技能、连接器、子 Agent。技能负责规定怎么做事,连接器负责接数据和系统,子 Agent 负责把复杂任务拆给专门的小模型处理。它还强调权限、凭证、审计日志和人在回路中审批。
这句话翻译成人话就是:企业不缺一个会说漂亮话的聊天框,企业缺的是一个能接上真实系统、按内部规矩干活、出事能追责的执行系统。
图:作者制图。信息来源:Anthropic、Axios、VentureBeat。
OpenAI 也在往同一个方向走。Axios 2 月报道,OpenAI 推出 Frontier,用来让企业构建、部署和管理 Agent 队列,重点包括身份、权限、业务上下文和执行环境。到了 5 月,Axios 又报道 OpenAI 推出企业部署与咨询业务 DeployCo,背后有数十亿美元私募资金支持。
这两件事连在一起看,意味很清楚:模型公司正在向“企业改造公司”靠近。它不只是卖 API,也不只是卖 ChatGPT 账号,而是想进入企业内部,帮你把 AI 放进流程、岗位、系统和管理结构里。
Perplexity 的路线更像另一个侧面。VentureBeat 3 月报道,Perplexity 把 Computer 推向企业市场,核心不是单个模型,而是一个编排器:把一个目标拆成多个子任务,再分派给不同模型和工具去完成。报道里提到,它要接 Slack、Snowflake、Datadog、Salesforce、SharePoint、HubSpot,还要支持 SSO、权限、审计、数据保留策略。
看起来是三个新闻,其实是一件事:AI 公司开始从“模型能力竞赛”,进入“企业执行层竞赛”。
为什么聊天框不够了
聊天框的问题不是不聪明,而是不负责。
你让它分析一个客户,它可以写一份分析。可如果它不能读 CRM,不能看邮件往来,不能查合同状态,不能知道这个客户上次投诉过什么,它写出来的东西就只是泛泛而谈。
你让它做财务月结,它可以解释月结流程。可如果它不能访问账簿、拉取凭证、比对差异、生成调整分录、把风险项标出来,并且把每一步留在审计日志里,那它还是顾问,不是员工。
你让它帮公司提效,它可以写一份“AI 转型方案”。可真落地时,问题马上变得很脏:谁授权它看数据?它能不能把客户信息发给外部模型?它调用了哪个工具?它为什么改了这条记录?它犯错后谁负责?它什么时候必须停下来问人?
这就是为什么很多企业 AI 项目看起来演示很漂亮,上线很艰难。Demo 里只要回答正确;公司里还要权限正确、流程正确、责任正确、日志正确、成本正确。
所以,2026 年“数字员工”的核心不是拟人化,而是系统化。
图:作者制图。概念来源:OpenAI Frontier、Anthropic Finance Agents、NIST AI Agent Standards Initiative。
一个真正能在企业里使用的 Agent,至少要有四层。
第一层是模型。它负责理解目标、拆任务、推理、生成结果。这是过去两年大家最熟悉的部分,也是媒体最爱讨论的部分。
第二层是 Agent 运行时。它要管理任务状态,支持长时间执行,知道失败后怎么重试,知道什么时候把任务切给子 Agent,知道什么时候停下来。
第三层是工具和连接器。没有工具,模型只能说话;接上邮件、表格、数据库、浏览器、代码环境、CRM、工单系统,它才有“手”。Anthropic 在 2024 年提出 Model Context Protocol,本质上也是在解决模型如何稳定接入外部数据和工具的问题。
第四层是权限和审计。企业最关心的往往不是“它能不能做”,而是“它凭什么能做”“它做了什么”“谁批准的”“出了问题怎么查”。这也是 NIST 在 2026 年推动 AI Agent 安全和标准化讨论的原因:Agent 一旦能行动,它就不再只是内容生成工具,而是一个会触发真实后果的数字行为者。
这四层叠起来,才像一个可出售的“数字员工”。
AI 公司为什么都盯上企业流程
原因也很现实:聊天产品的上限不够。
普通用户愿意为一个更聪明的聊天框付几十美元,但企业愿意为节省工时、缩短流程、减少外包、提升销售和降低运营成本付更多钱。尤其在金融、客服、软件开发、法务、运营这些场景里,只要能证明一个流程真的少花时间、少出错、可审计,就能进入预算。
这也是为什么 Agent 会先从企业工作里长出来,而不是先从家庭生活里长出来。
家庭场景很分散。今天订机票,明天买菜,后天帮孩子写作业,每个任务都不稳定,权限和支付风险又很麻烦。企业场景反而更适合 AI:任务重复、流程固定、数据集中、结果可以衡量,老板也更容易算账。
Anthropic 选择金融不是偶然。金融工作里有大量高价值但高重复的文档、模型、审查和汇报任务。OpenAI 做企业部署,也不是偶然。企业真正缺的不是“知道 AI 很强”,而是不知道怎么把 AI 放进旧系统、旧流程和旧组织里。
这让 AI 公司看起来越来越像三种公司的混合体。
它像模型公司,因为底层仍然靠大模型能力。
它像 SaaS 公司,因为它要把能力做成可订阅、可管理、可审计的软件。
它又像咨询公司,因为企业不会自己凭空重写流程,必须有人帮它识别场景、接系统、改组织、做培训、验收 ROI。
所以 OpenAI 做 DeployCo 这类部署业务,并不奇怪。大模型越来越强之后,难点从“有没有模型”变成“能不能改造真实业务”。谁能把模型变成组织里的产出,谁就拿走企业预算。
最难的不是 Agent 会不会思考,而是它能不能被管理
很多人讨论 Agent 时,会把问题推到“它够不够聪明”。这当然重要,但不是唯一重点。
在企业里,一个不够聪明但边界清楚的系统,可能比一个很聪明但无法追责的系统更容易上线。因为公司怕的不是 AI 偶尔答错一句话,而是 AI 在错误权限下做了真实动作。
比如,一个销售 Agent 可以自动写客户跟进邮件,这不难。但它能不能看到所有客户资料?能不能承诺折扣?能不能修改 CRM 阶段?能不能代表公司发合同?遇到投诉能不能升级给人?这些问题不解决,它就只能停留在助理层。
再比如,一个财务 Agent 可以帮你核对账目。可它发现差异后能不能直接生成调整分录?能不能改账?能不能触发付款?哪些动作需要财务经理确认?审计人员如何复盘它当时看了哪些材料、调用了哪些工具、为什么得出那个结论?
这些问题听起来不酷,但它们决定 Agent 能不能从演示走到生产。
所以,真正的企业 Agent 不是“更会自主发挥”,而是“更能被约束”。它必须知道什么能做,什么不能做,什么必须问人,什么必须留痕。越是接近钱、客户、合规和关键生产系统,这一点越重要。
这也是“数字员工”这个说法容易误导人的地方。员工不是因为会说话才是员工,而是因为他在组织里有身份、权限、职责、流程和责任边界。AI 要成为数字员工,也必须进入这套结构。
这会不会变成新一轮外包
如果把这件事放大一点看,2026 年的 AI Agent 竞争,本质上是在重新定义企业劳动力。
过去,公司需要一个新能力,可能会招聘、外包、买 SaaS、请咨询公司。现在 AI 公司想说:你不一定要先招人,也不一定要买一堆软件,我们给你一个能做某类工作的 Agent,再帮你接进流程。
这听起来很诱人,也很危险。
诱人之处在于,很多低价值重复工作确实应该被机器吞掉。没人真的怀念手动复制报表、反复整理会议材料、在十几个系统里查同一批数据。如果 Agent 能把这些活拿走,人可以把时间放在判断、沟通、设计和负责上。
危险之处在于,公司很容易把“AI 提效”理解成“减少人、增加单人责任”。一个员工原本负责一件事,现在要负责一个流程加几个 Agent;一个团队原本有多个岗位,现在被改造成少数人加一堆自动化。表面上效率更高,实际上风险和压力可能被转嫁到留下来的人身上。
更深一层的问题是:如果 AI 公司掌握了企业流程里的关键执行层,它们就不只是供应商,而会变成某种新的组织基础设施。模型在哪家,连接器在哪家,审计日志在哪家,Agent 模板谁定义,最后都会影响企业怎么工作。
这比“AI 会不会替代某个岗位”更值得盯。
岗位不是一夜之间消失的。更常见的变化是:一个岗位的任务被拆开,其中一部分被工具拿走,一部分被流程重组,一部分被更少的人负责。等你回头看,岗位名称还在,工作内容已经不是原来的东西了。
我们到底该怎么看这波 Agent 热
我不建议把 2026 年的 Agent 热简单看成营销。
里面当然有营销。每家公司都想把自己的产品说成“下一代工作方式”。但这一次,底层变化是真实的:模型能拆任务,工具调用更成熟,MCP 这类协议在连接工具生态,企业预算正在转向可衡量的 AI 交付,监管和安全机构也开始把 Agent 当成独立风险对象。
也不建议把它简单看成 AGI 前夜。
企业 Agent 不等于通用智能。一个能做 KYC 筛查的 Agent,不代表它能理解所有商业问题;一个能调度 20 个模型的系统,也不代表它真的拥有稳定的长期自主性。今天真正能落地的 Agent,大多还是被限定在任务、权限、数据和流程里的“窄执行者”。
更准确的判断是:AI 正在从“内容生成工具”变成“组织执行工具”。
这一步带来的影响,可能比聊天框本身更大。因为聊天框改变的是个人效率,执行工具改变的是组织分工。前者让一个人写得更快、查得更快;后者会让公司重新思考:哪些流程还需要人,哪些岗位该保留,哪些责任必须由人承担,哪些系统要开放给机器。
所以,当 OpenAI、Anthropic、Perplexity 们开始卖“数字员工”时,真正的问题不是它们会不会取代你身边某一个同事。
真正的问题是:未来公司里的工作,会不会被重新拆成两部分:一部分由人负责判断、关系、责任和最后签字;另一部分由 Agent 在后台持续执行。
如果答案是是,那么 2026 年这波变化,就不是又一个 AI 热词,而是企业软件、咨询服务和劳动力市场开始重组的信号。
我们过去问的是:“AI 会不会聊天?”
现在该问的是:“当 AI 开始进公司干活,谁来管理这些数字员工?”
参考来源
- Anthropic, “Agents for financial services”, 2026-05-05:www.anthropic.com/news/financ…
- Axios, “OpenAI launches platform to manage AI agents”, 2026-02-05:www.axios.com/2026/02/05/…
- Axios, “OpenAI launches AI consulting arm valued at $14 billion”, 2026-05-11:www.axios.com/2026/05/11/…
- VentureBeat, “Perplexity takes its ‘Computer’ AI agent into the enterprise”, 2026-03-10:venturebeat.com/technology/…
- Anthropic, “Introducing the Model Context Protocol”, 2024-11-25:www.anthropic.com/news/model-…
- NIST, “CAISI Issues Request for Information About Securing AI Agent Systems”, 2026-01-12:www.nist.gov/news-events…
- NIST, “Announcing the AI Agent Standards Initiative”, 2026-02-17:www.nist.gov/node/190662…