Agentic Mesh——运营模式与组织架构

0 阅读53分钟

运行模型是连接战略与执行的“结缔组织”。它把宏大的愿景——无论是效率、创新还是韧性——翻译成日常例行机制,从而规定人、流程与技术如何协同工作。落到实践中,运行模型会明确角色、决策权、信息流,以及问责机制。它回答一些非常实际的问题:谁做什么、用什么工具、遵循什么规则、以什么结果来衡量?在金融服务、航空、医疗等诸多领域,运行模型正是让组织能够安全且可预测地驾驭复杂系统的框架,它在“自治”与“监督”之间取得平衡。

随着智能体兴起——并且很快将出现 agentic mesh(由 AI 驱动的软件实体组成的网络,它们与人以及彼此协作)——对一个健壮运行模型的需求变得更加迫切。智能体不是静态工具;它们会学习、适应,并跨越边界采取行动,同时带来机会与风险。如果缺乏一个定义所有权、设置护栏并内建可观测性的模型,组织就可能滑入失控的复杂性:试点项目无法规模化、错误层层级联、问责边界变得模糊。

这场更广泛的讨论包含若干相互关联的维度。本章首先从高层设计入手,为 agentic mesh 给出一个运行模型,勾勒其结构、流程、技术、策略与指标。接着我们解释 agent fleets(智能体编队/群组)以及它们如何被管理与组织。然后我们转向单个智能体的团队结构,说明跨职能所有权如何确保智能体保持有效、安全并与目标对齐。随后我们审视转型考量,探讨组织如何以伦理、合法且富有同理心的方式应对劳动力变化。最后,我们对未来工作形态作出推测,追踪智能体如何重塑岗位、任务与组织身份。合在一起,这些视角不仅展示 agentic 系统如何落地实施,也展示它们将如何重塑“工作”本身的性质。

WARNING
坦白说,写这一章既令人兴奋也令人不安,因为智能体版图变化非常快——即便我们身处该领域中并与客户共事。我们也许能把其中一些说对,但很可能在几年之后,这一切都会发生变化。即便在最好的时候,水晶球也总是雾蒙蒙的,因此必须承认后面某些部分——尤其是关于未来工作的章节——仍然带有很强的推测性。智能体生态系统还处在早期演进阶段,它们的技术能力与组织影响都很可能快速变化。今天看似可能甚至合理的轨迹,在短短几年内就可能显得截然不同,因为自治能力、监管与文化接受度的进展会重塑可能性。因此,本章的部分讨论不应被视为确定性预测,而应被当作工作假设(working hypotheses):希望能提供一些指引,帮助组织在为多种情景做准备的同时,保留足够灵活性,以便在智能体技术成熟时持续适应。

结构、流程、技术、策略与指标(Structure, Process, Technology, Policy, and Metrics)

像任何有效设计一样,图 13-1 所示的 agentic mesh 运行模型建立在五大支柱之上:结构(在这里既包括人也包括智能体)、流程、技术、策略与指标。对“人 + 智能体”的工作队伍而言,这五者都必须被重新构想。结构定义所有权与决策权;流程铺开智能体从构想到退役的生命周期;技术规定每个智能体依赖的共享平台要素;策略把允许与禁止的边界编码下来;指标揭示系统是否在安全地创造价值,还是正在滑向风险。该框架呼应了其他复杂系统(如云原生开发或金融风险管理)的运行模型被制度化的方式:防止含糊不清演变为脆弱性。

image.png

图 13-1 运行模型支柱(Operating model pillars)

结构(人和智能体)(Structure: People and Agents)

在结构上,智能体应被视为数字员工。每个智能体或智能体家族都应有一位人类产品负责人(product owner)对其业务价值负责,并有一位安全负责人(safety owner)对其风险画像负责。决策权必须明确:哪些动作智能体可以自主执行,哪些需要预先批准,哪些需要事后复核?智能体的身份与访问管理应当镜像人的管理方式,能够在条件变化时签发、吊销并调整权限。与人力资本运行模型的类比很有启发:组织为员工设计岗位说明、汇报线与升级路径,同样也必须为智能体完成这些设计。

流程(Process)

运行模型中的流程要素捕获智能体的生命周期。不同于一次发布、偶尔打补丁的软件,智能体必须被当作“活系统”来管理。它们的生命周期应从需求受理与商业论证开始,然后在安全沙箱中完成设计与仿真。分阶段发布之前,应进行策略符合性检查与红队压力测试。部署必须包含“紧急停止开关”(kill switches)与错误预算(error budgets)来约束风险边界。一旦上线,智能体需要可观测性、与事件响应体系集成,并最终在退役时保留审计日志。这个端到端流程呼应航空或制药等高可靠行业的运行模型:生命周期治理不是可选项,而是内建其中。

技术(Technology)

对于 agentic mesh,技术需要提供若干关键能力:

  • 一个注册表(registry),对每个智能体进行版本化并跟踪其来源(provenance)
  • 一个策略决策点(policy decision point),在运行时对数据、工具与自治程度施加约束
  • 可观测性系统(observability systems),以不可变方式记录 prompts、工具调用与结果
  • 回归流水线(regression pipelines),通过回放场景来测试更新
  • 安全消息与身份层(secure messaging and identity layers),让智能体能彼此安全认证并进行交易式交互

这套技术栈并不陌生,类似云运行模型的技术骨架:注册表、可观测性平台与身份织体(identity fabric)都是中心组件。差别在于:这里的工作单元不只是容器或微服务,而是会做决策的自治实体。

指标(Metrics)

指标是评估的生命线。它让运行模型变得具体且可验证。在价值侧,组织应跟踪(除其他外)完成率、周期时间、服务成本(cost to serve)与客户满意度。在安全侧,必须监控升级频率、覆盖/强制改写率(override rates)、幻觉事件(hallucination incidents)与隐私违规。这些指标应绑定到服务级目标(service-level objectives)。如果某个智能体超出其错误预算,应自动降低或暂停其自治度。这里的逻辑与云运维中的站点可靠性工程(SRE)一致:用量化阈值决定系统是否保持全自治,或回退到更安全、更慢的模式。

构建一个“适度但务实”的策略目录,能帮助组织起步而不至于被“完备性焦虑”拖住。例如,自治与升级规则可以按风险等级结构化:低风险任务可自治执行并记录日志;中风险任务包含限制与通知;高风险任务必须人类审批。类似地,数据访问策略应始终强制最小权限(least privilege)、目的绑定(purpose binding),以及在 prompts 中最小化敏感细节。这些不是抽象理念,而是平衡速度与安全的具体约束,类似大型企业的采购策略:防止支出超出批准类别。

策略(Policy)

策略是领导力施加影响的地方。智能体绝不能在既定规则之外运行,而这些规则必须在运行时系统中被强制执行,而不是停留在手册里。自治分层、最小权限数据访问、prompt 与工具版本化、以及针对不安全行为的护栏都是例子。仅仅写下策略,如果不把它翻译成机器可执行规则,是不够的。这类似 2008 年金融危机后金融运行模型的演进:监管者意识到纸面策略不够,机构必须把风险控制嵌入实时系统——信用评分、限额与报告体系——之中。

其他考量(Other Considerations)

成本控制值得特别强调。如果上下文窗口不断膨胀,或工具调用数量无限增长而缺乏约束,agentic 系统可能悄然变成成本黑洞。把每个智能体的运行时成本上限内建进去,并按任务衡量单位经济性(unit economics),能倒逼效率。这让人联想到精益制造的运行模型如何通过准时制(just-in-time)原则减少浪费。通过监控每个智能体的经济足迹,组织建立问责,防止隐藏成本侵蚀价值。

与其他运行模型的对比也很有启发。比如 DevOps 运行模型通过整合研发与运维,在保持可靠性的同时加速交付,其成功依赖三点:清晰所有权、持续监控与自动化护栏。agentic mesh 运行模型呼应这一结构,但把对象扩展到会自主推理与行动的实体。类似地,金融危机后银行的目标运行模型(target operating models)把策略、治理与指标组合起来以确保韧性。经验是:运行模型的成功不靠增加官僚,而靠把清晰与控制嵌入日常工作。

再看一个不同产业的类比:航空业。航空公司运营需要持续监督、认证与生命周期管理的“机器编队”。飞行员仍然负责,但飞机系统会自动执行许多决策。训练、认证与事件报告被深度制度化。agentic mesh 也需要类似的严谨:智能体就像机队,每个都有自己的运行执照、性能画像与可审计日志。没有这种严谨,小故障也可能被规模化放大为系统性风险。

把这些模型串起来的核心,是“自治”与“问责”的平衡。自治太少,系统效率低,智能体被人类瓶颈拖住;自治太多而缺乏问责,系统会变得鲁莽,风险扩展到失控。运行模型正是用来校准这种平衡的工具:基于观测到的表现与量化的风险容忍度来调节自治水平。

像其他运行模型一样,文档不是终点,而是起点。模型必须是“活的”——可版本化、可更新,并与改进历史绑定。它应以原则开篇——人类仍负最终责任、自治是挣来的不是给的、日志是事实来源——并自然流向结构、生命周期、策略与指标。它的力量不来自长度,而来自清晰与可执行性。

归根结底,agentic mesh 的运行模型是对高可靠领域经验的综合,并为自治软件的新现实做了改造。它从航空借来严谨性,从站点可靠性工程借来量化阈值,从金融服务借来治理。但它也必须足够轻量,才能让创新继续向前。能否把这种平衡做到位——在结构与敏捷之间、在风险管理与速度之间——将决定 agentic mesh 是否能作为企业中可信、可创造价值的一部分实现规模化落地。

智能体编队的结构(Structure of Agent Fleets)

智能体编队(agent fleet)是一组彼此交互、并以团队方式协同工作的智能体。如图 13-2 所示,编队最适合被视为“人类团队”的类比:团队里有多个人,编队里有多个智能体。组织(简单化地说)是“团队的团队”,而 agentic mesh 则是“编队的编队”。

image.png

图 13-2 智能体团队 vs. 智能体编队(Agent teams versus agent fleets)

智能体编队是 agentic mesh 的构建块。人类组织通过组装“团队的团队”来规模化,智能体系统则通过“编队的编队”来规模化。编队是一种逻辑上的、可部署的智能体单元:一组智能体被配置为在共享的基础设施与治理之下协同工作。编队不把智能体视为彼此孤立的工具,而是把它们视为能交付端到端结果的协同组合。它们被当作整体系统进行配置、管理与演进,而不是当作个体的集合来处理。

编队的重要性在于:它能为智能体生态带来结构、连贯性与可问责性。它为一组智能体可预测地运行提供所需的注册表、可观测性、交互规则与策略执行能力。它也为规模化提供脚手架:企业可以管理数十甚至数百个编队,就像它管理部门或事业部一样。四个主题定义了智能体编队的性质:

  • 编队作为 mesh 的规模化单元
  • 动态成员与流动边界
  • 核心服务作为“胶水”
  • 以使命对齐,而非仅以职能对齐

编队作为 mesh 的规模化单元(Fleets as the Scaling Unit of the Mesh)

编队之于智能体,正如团队之于人:它是协作的基本单元。单个智能体可以完成某项任务,但复杂的业务结果——例如客户入驻(onboarding)或理赔处理(processing a claim)——需要多步骤、交接与协同。编队通过把多个智能体组织成可编排的组合,使这种复杂结果成为可能。正如人类组织不会依赖个体孤立工作,企业也不会依赖孤立的智能体。

编队的独特之处在于它的可部署性。它们以一致单元的形式被启动、扩容与退役。一个编队可能从“空壳”开始——只有基础设施没有智能体;也可能在启动时就“满编”,拥有为某条业务流程准备好的专业化智能体。这种模块化让编队可复用、可移植:它们可被当作打包组件——在需要处被配置、在能力提升时被升级、在不再相关时被退役。

当组织把关注点从“智能体”转向“编队”,讨论就从战术任务上升为战略结果。高管不必跟踪每个智能体的每一次决策;他们监控编队级的表现,就像管理部门而不是管理每个员工。编队以聚合方式交付结果:仪表盘、合规证据、价值流指标——这些都可直接映射到企业目标。

这种结构性转变——从管理智能体到管理编队——把零散自动化转化为韧性强、企业级的生态系统。mesh 本身是“编队的高阶系统”,使得规模化与治理能上升到超越任何单一智能体的层级。

动态成员与流动边界(Dynamic Membership and Fluid Boundaries)

不同于成员相对固定的人类团队,智能体编队是有弹性的。智能体可以根据需求、上下文或目的,动态加入或离开某个编队。例如,一个客服编队在高峰期可能扩容并加入数十个额外智能体,然后在夜间缩回。某些专业智能体可能会临时加入编队以处理合规或翻译任务,完成后再离开。

这种灵活性使编队更像“活的组合体”,而非静态组织。连续性不在于具体某个智能体,而在于编队的基础设施:注册表、可观测性与规则,这些会在名单变化时依然保持。编队提供持续的连贯性,确保成员变动不会导致混乱。

其结果是一种更像云计算、而不是传统团队的结构——弹性、响应式、模块化。人类组织可能需要数月来招聘或重组;编队则可以在数秒内重塑自身,同时不丢失问责与治理。

核心服务作为“胶水”(Core Services as the Glue)

每个编队的核心,是把智能体绑定成一个连贯单元的核心服务。这些服务就像数字组织里的 HR、IT 与合规,为智能体的可预测协作提供基础设施。

注册表(registry)是编队的目录:智能体在其中可被发现,并附带目的、负责人、自治等级、认证等元数据。注册表确保成员关系不是临时拼凑,而是受身份与问责规则治理。

交互管理(interaction management)是另一项关键服务。它处理通信流、消息中介,以及当多个智能体对同一对象采取行动时的冲突消解。没有它,编队会面临瓶颈或相互矛盾的行动。可观测性(observability)确保每次决策、工具调用与交互都被不可变地记录,从而支持审计、监控与事后复盘(postmortems)。

策略执行(policy enforcement)同样重要:它在运行时实时检查智能体能做什么、不能做什么,确保遵循自治等级、数据访问规则与业务护栏。合在一起,这些控制确保自治不会滑向无政府状态。

除上述必需项外,编队还可能包含认证与鉴权等安全层、编队级监控仪表盘,以及在压力下扩缩容或重配置编队的韧性服务。这些“胶水服务”决定了一群 bot 与一个可运行的数字组织之间的差别。

通过内建这些服务,编队就不只是智能体的集合——而是被编排的系统。它们提供可靠性、可预测性与可审计性,把原始的智能体能力转化为可用于业务的结果。

以使命对齐,而非仅以职能对齐(Alignment to Missions, Not Just Functions)

人类组织通常按职能(财务、HR、运营)或地域来组织。相比之下,编队更自然地按使命或结果来对齐。它们被组装起来交付端到端价值流,例如客户入驻、理赔处理或供应链编排。每个编队围绕流程阶段聚合智能体,并把交接编码进交互模式之中。

这种使命驱动结构让编队更通用:它们可以服务流程、客户旅程或跨职能需求。例如,一个以客户为中心的编队可以监控客户数据、管理计费、标记风险并提供主动支持——作为一个统一协同单元来运作。实际上,它像一个专属客户团队,但在软件规模上运行。

通过按使命对齐,编队交付的不只是效率,还交付结果的连贯性。它们把孤立的智能体输出转化为可度量的价值流,直接映射到业务目标。这种设计使编队成为把智能体嵌入企业运行模型的理想载体。

编队管理中的关键角色(Key Roles in Fleet Management)

管理智能体编队需要新的“人类角色”,用于在自治与监督之间取得平衡,并让编队与组织目标保持一致。以下是编队管理的关键角色:

Fleet manager(编队经理)
编队经理是对编队生命周期承担问责的人类角色。他们决定编队的组成、使命边界与运行条件。智能体可以自我协调,但只有人类才能平衡战略优先级、合规要求与风险偏好。编队经理更关注编队作为系统的整体表现,而不是单个智能体的具体行为。

Fleet reliability engineer, FRE(编队可靠性工程师)
FRE 确保编队可靠运行并遵守错误预算。他们监控健康状况、扩缩容与韧性,并在跨智能体故障发生时介入。类似云环境中的 SRE,FRE 负责设计可观测性、管理事件响应,并维护性能服务级协议(SLA)——但对象是编队层面,而非基础设施层面。

Fleet interoperability/integration engineer(编队互操作/集成工程师)
该角色确保编队能够跨边界通信与协作。就像人类部门需要集成一样,编队需要跨域兼容性。该工程师定义协议、在编队之间中介消息,并确保结果能在 mesh 的不同编队间顺畅流动。缺少这一角色,编队容易变成孤岛,削弱“编排”的价值承诺。

编队的组织模式(Organizational Patterns for Fleets)

编队可以按不同方式组织,取决于组织优先级;常见模式围绕领域、流程、客户、地域与跨职能集成展开:

按领域(By domain)
一些编队对齐核心业务职能,例如财务、HR 或合规。这些编队像数字部门,在领域内提供一致性与治理。

按流程或价值流(By process or value stream)
另一些编队对齐业务流程——如入驻、理赔或订单管理。它们交付端到端结果,作为流程团队的数字等价物运作。

按客户或细分(By customer or segment)
客户对齐的编队围绕特定客户或市场细分提供服务,实现个性化、持续的参与感,带来“专属客户团队”的体验。

按地域或市场(By geography or market)
全球化组织可能按地区部署编队,内建本地合规、语言与市场认知。这些编队对应跨国企业的地域分部结构。

跨职能编队(Cross-functional fleets)
一些编队跨越多个领域,把流程端到端串起来。例如在供应链场景,编队可能连接采购、物流与财务。这些横向编队为纵向孤岛之间提供“结缔组织”。

智能体团队的结构(Structure of Agent Teams)

我们使用了两个术语,它们可能会被误以为是同一回事:agent teams(智能体团队)agent fleets(智能体编队) 。但二者差别很大:智能体团队是一个面向价值流的流对齐团队(在 Team Topologies 的术语中称为 stream-aligned team),它端到端拥有一个自治智能体:从定义、构建、运行到治理。本节讨论的是智能体团队。为简化表述,智能体团队由人组成,尽管他们可能会使用 AI 和智能体本身来构建与管理智能体。

把智能体团队想象成现代产品团队,或数据网格(data mesh)里的数据产品团队:你不会把工作“隔墙丢过去”;你会把它从想法一路带到安全、可创造价值的运行状态——从想法到生产。不同之处在于:智能体是“活系统”。它们会推理、通过工具执行动作、与其他智能体协调,并且当你修改 prompts、模型、工具或上下文时,它们的行为也会改变。正是这种“活性”,要求持续评估、显式护栏,并与平台团队(身份、数据、API、可观测性)以及赋能团队(治理、安全、架构、培训)紧密协作,才能让智能体长期既有用又可信。

在构建这一结构时,我们希望尽可能沿用已有实践。因此,在很多方面,我们对待智能体 owner 的方式,几乎与 data mesh 里的数据产品 owner 一模一样:对全生命周期的可用性、质量与信任负责。额外的复杂点在于自治管理——定义决策权、边界与升级路径——以及在价值所有权之外,还要设置安全所有权。这个“双重使命”使智能体既有效,又能被客户、监管者与品牌所接受。

我们也大量借鉴 Team Topologies:在我们看来,它可能是关于“如何组织任何具有实质技术成分的团队”的最佳信息来源之一。因此沿用其命名体系,智能体团队会对齐某条价值流(理赔处理、客户入驻、财务运营等)。如图 13-3 所示,智能体团队由平台团队(数据平台、API 平台、身份/策略、可观测性)提供支持,这些平台团队提供“铺好路”(paved-road)的能力,智能体团队以自助方式消费。智能体团队的成功也依赖现有的人类团队(治理、架构、红队、安全、培训/赋能、指导委员会等),它们帮助智能体团队提升技能、固化标准,并处理棘手的横切关注点(crosscutting concerns)。这种结构让智能体团队在保持安全的同时也能快速推进。

NOTE
我们会描述一些角色,但并不要求每个角色都由一个人单独担任——在一些大型智能体团队中也许会这样,但我们不认为这具有强制性。你应当选择适合自己的方式。有时一个人可以承担多个角色;但在另一些情况下,你可能需要多个人共同承担同一个角色。

image.png

图 13-3 支撑智能体团队的角色(Roles that support agent teams)

下面快速概览接下来会详细讨论的角色:

  • Agent owner(智能体负责人)
    对目的、价值与风险承担问责;类似 data mesh 的数据产品负责人,并包含自治与安全护栏。
  • Agent engineers(智能体工程师)
    构建智能体:prompts、工具契约、检索/上下文、API 与集成;以安全且快速的方式交付变更。
  • Reliability and operations specialists(agent SREs,智能体 SRE/可靠性与运维专家)
    负责生产运行:可观测性、错误预算、事件、性能、成本控制、紧急停止开关。
  • Governance and certification lead(治理与认证负责人)
    把策略转化为测试与认证;定义自治分层;在变更后管理(再)认证。
  • Evaluation and human-in-the-loop supervisor(评测与人类在环监督者)
    新时代的智能体测试者;设计金标准测试、对抗场景、版本并排回归;在需要时监督决策。
  • Policy and ethics liaison(策略与伦理联络人)
    把法律/合规/品牌原则转化为运行时约束、审批与审计。
  • Release manager(发布经理)
    与智能体负责人和客户协作规划发布、安排变更窗口,并交付有序、可回滚的上线。

Agent owner(智能体负责人)

智能体负责人是对智能体承担首要责任的人,也是价值的首要发声者——他们代表智能体团队发声。他们定义并传达智能体的目的(解决什么问题、为谁服务)、成功度量(业务 KPI、安全 SLO)、以及自治边界(智能体能“执行”还是只能“建议”)。这与 data mesh 的数据产品负责人完全类比:他们拥有的是可用性、信任与生命周期,而不仅是交付里程碑。他们还会维护智能体对外提供的“契约”(capabilities、expectations、limits)。

智能体负责人为智能体工程师设定优先级,与发布经理一起验收发布,与智能体 SRE 约定服务级目标(SLOs),并与治理负责人一起确定认证门禁(certification gates)。他们也会与策略/伦理联络人对齐约束,与评测监督者对齐验收测试。在 Team Topologies 的语言里,智能体负责人编排来自平台团队与赋能团队的支持,使流对齐团队能快速推进而不破坏信任。

需要注意的是,智能体负责人会向智能体编队经理(在“Structure of Agent Teams”中提及)汇报,以确保一个编队内的智能体交互满足运维期望。

Agent engineers(智能体工程师)

这类角色负责设计与构建智能体。智能体工程师塑造 prompts 与工具使用策略;定义强类型工具契约(typed tool contracts);连接检索、embedding 与上下文窗口;并通过干净的 API 集成外部系统。他们也会添加可观测性钩子(决策日志、工具追踪),并实现护栏(校验器、策略检查)。这项工艺处在分布式系统、机器学习与产品工程的交汇点上。

该角色之所以关键,是因为极小的改动——prompt 里的一行、新增一个工具、更换检索策略——都可能彻底改变行为。因此工程师必须以“安全即构造”(safety by construction)的方式编码:工具动作幂等(idempotent)、明确的前置/后置条件(pre/postconditions)、可复现构建(reproducible builds)。他们也需要管理单位经济性(tokens、延迟),平衡成本与性能。

智能体工程师把智能体负责人的意图落实为实现,暴露 SRE 所需指标,满足治理负责人提出的认证测试,并为评测监督者的回归套件做好可观测与可测性。他们依赖平台团队提供身份、策略、数据访问与可观测性能力,也依赖赋能团队提供架构模式与默认安全的库。

可靠性与运维专家(智能体 SREs)(Reliability and Operations Specialists)

智能体 SRE 关注可靠性与可运维性——简单说,就是让智能体在生产中保持健康。他们为准确性、延迟、升级率与成本定义 SLO 与错误预算;为 prompts、工具调用与结果构建仪表盘;并响应事件。

智能体是动态的。我们知道模型会变、工具会失败、数据会漂移、prompts 会漂移。因此如果没有 SRE 纪律,回归问题会泄漏给用户,事件会重复发生,自治不得不收窄——从而侵蚀价值。SRE 通过把韧性“运维化”来守护信任(采用传统技术包括退避 backoffs、熔断 circuit breakers、策略强制限流 policy-enforced throttles),并量化运维风险。

该角色与工程师一起协作运行时模式,与发布经理一起管理发布列车与变更冻结(change freezes),并与治理负责人一起产出事件证据与复盘报告。他们也向智能体负责人提供生产反馈:自治是否可以安全提高。平台侧的可观测性与身份/策略团队是关键协作方。

治理与认证负责人(Governance and Certification Lead)

治理负责人把策略转化为机器可检查的门禁(machine-checkable gates)。他们将隐私、安全、品牌与监管规则翻译成测试与评估;定义自治分层(仅建议 propose-only、带限制执行 act with limits、执行并通知 act with notify 等);并在上线前认证(certification)以及任何有意义变更(模型替换、prompt 重写、新工具接入)后再认证(recertification)。

与静态软件不同,智能体的行为可能在没有代码变更的情况下发生漂移(例如模型更新)。治理提供持久保证:谁批准了什么、通过了哪些测试、配套什么回滚计划,都有清晰轨迹。它保护客户与企业,并通过让风险显性化、流程化来支持更快变更。

该角色与智能体负责人一起验证智能体是否按预期工作,复核智能体表现并认证其正确运行。他们也可能与发布经理一起阻断或放行发布,并与策略/伦理联络人协作保持约束的时效性。他们依赖赋能团队(治理、安全、法务)并复用平台能力(策略决策点、审计日志)来在运行时执行规则。

评测与人类在环监督者(Evaluation and Human-in-the-Loop Supervisor)

该角色最贴切的描述是:面向智能体的“新质量与测试角色”。他们构建并维护金标准评估套件:代表性任务、边界案例、对抗 prompts、以及跨版本的并排对比。他们也为高风险动作设计检查点,并监控升级/覆盖率作为漂移的领先指标。他们的视角是行为层面的:智能体是否在边界内采取了合适行动?而不仅仅是:它是否跑通了?

持续评估让漂移可见。有了稳定且与业务相关的测试,你就可以更有信心地修改 prompts、模型或工具。监督者也确保在人类判断至关重要之处,人类仍然掌控:把隐性的专家经验转化为清单、量表与结构化反馈,让智能体可以学习。

该角色与智能体负责人一起定义验收标准,与工程师协作提高可测性,与 SRE 关注部署后指标,并向治理负责人提供认证所需结果。他们也会与赋能团队(培训、红队)协作扩展场景,并与平台数据团队合作以负责任方式获取评测数据集。

策略与伦理联络人(Policy and Ethics Liaison)

策略与伦理联络人负责把企业原则与运行时约束连接起来。他们解读法律、行业标准与品牌指南;决定何处需要同意(consent)、来源证明(provenance)或可解释性(explainability);并确保智能体的行为与记录能够经受审计与客户审查。他们定义禁止或高摩擦操作,以及这些操作所需的审批。

为什么这个角色重要?因为智能体会触达人、数据与金钱。伦理失误或合规失败会侵蚀信任,并引入更严格的控制从而拖慢进展。一个前置的联络人通过“默认合规”的设计降低风险,让团队能够快速推进而不越线。

该角色与治理负责人共同编写策略测试,向智能体负责人提供自治边界建议,帮助工程师嵌入策略检查,并向发布经理说明变更影响。他们依赖平台团队提供身份/授权、数据脱敏与审计日志能力,也依赖赋能团队(法务、风控、品牌)提供源策略输入。

发布经理(Release Manager)

发布经理负责变更节奏(change cadence)。他们与智能体负责人一起从客户与利益相关者处收集需求,划定发布范围,与 SRE 一起规划金丝雀(canaries)与回退方案,并安排避开业务冲突的发布窗口。他们维护发布日历,协调跨团队依赖(例如模型升级与 API 变更),并确保每次上线都有序且可回滚。

在智能体系统中,“小改动”可能产生巨大的影响。发布经理通过确保在变更进入生产前证据齐备(评测结果、认证签署、回滚计划)来保护客户与品牌。他们也通过建立可预测的发布列车提升吞吐,减少临时救火式的发布。

该角色处在流对齐团队的中心:与智能体负责人协作优先级,与工程师确认就绪度,与 SRE 评估风险,与治理负责人对齐门禁,与策略与伦理联络人对齐审批。他们也与平台团队协调共享升级(身份/策略、数据、可观测性),并与赋能团队协作变更治理与 steering。

转型考量(Transition Considerations)

几乎没有任何组织能够在一夜之间从“纯人类劳动力”跳跃到一个完全成熟的 agentic mesh。走向 agentic mesh 的旅程需要审慎规划、循序实验与富有同理心的推进。是的,智能体承诺速度、规模与精度,但它们也会带来不确定性、文化摩擦与新的风险;如果缺少周全的转型方案,组织可能会被夹在两个世界之间:一边是担心被替代的人类员工,另一边是缺乏清晰监督的自治系统在运转。结果既不是效率,也不是信任,而是瘫痪。

转型之所以必要,是因为智能体改变的不只是任务如何完成,还改变了“工作”本身如何被组织。岗位会分解为任务集合:部分任务转移给智能体,部分仍由人承担,而全新的任务也会涌现出来。如图 13-4 所示,这种重构要求组织重点考虑:

  • 人的影响与伦理
  • 沟通与信任
  • 再技能与治理

image.png

图 13-4 平衡且有效的转型(Balanced and effective transition)

人的影响与伦理基础(Human Impact and Ethical Foundations)

当智能体进入工作场景时,最迫切的担忧是人的反应。员工会自然地问:这项技术会取代我,还是会帮助我?如果不加处理,这种焦虑会迅速侵蚀士气并滋生抵触。领导者必须公开承认:对失业的担心是真实且合理的——忽视它只会助长怀疑。以伦理为基础的转型必须从这一点出发:人的影响不是“附带损伤”,而是采用能否成功的核心。

伦理原则是组织使用智能体时的承诺边界。透明、公平与对尊严的尊重必须构成基石。这意味着尽可能把智能体设计为增强人类角色,而不是悄无声息地替代他们。例如,客服智能体可以自动化常规分流与初步分诊,而人类员工则专注于共情与复杂问题求解。通过明确“增强优先”的设计原则,组织把价值观固化为实践。

伦理还必须被“运维化”为机制。仅仅说“我们重视公平”并不够。组织应把对劳动影响的决策纳入人工复核保证,确保所有岗位变更都可以申诉,并建立审计日志记录智能体建议是如何被采用的。就像金融机构必须遵守严格的风险控制一样,部署智能体的组织也必须能证明:伦理承诺是可执行的,而不是停留在愿景层面。

同样重要的是,价值观必须塑造激励机制。如果员工只按个人产出衡量,他们很可能把智能体视为竞争者。但如果激励机制奖励协作、安全自治与提升智能体表现,那么智能体就会成为队友而非威胁。这呼应制造业与 IT 过往的转型经验:重塑激励对文化接受度至关重要。

智能体伦理很可能应被视为动态的。随着智能体演进与社会预期变化,今天可接受的做法明天未必仍然可接受。组织需要持续运作的伦理审查委员会,成员包括员工代表、技术团队与合规代表。这确保当 agentic mesh 变得更强大时,伦理护栏也能同步演进,而不是滞后。

沟通、信任与文化适应(Communication, Trust, and Cultural Adaptation)

即便具备强伦理基础,如果缺少清晰且持续的沟通,转型仍会失败。员工害怕他们不理解的东西,而智能体的行为常常显得不透明或不可预测。领导者必须说明的不只是为何引入智能体,还包括它们将如何与员工互动、日常工作会改变什么、以及哪些会保持不变。清晰能降低不确定性;含糊会放大不确定性。

但沟通不能是单向的。信任既需要“告知”,也需要“倾听”。员工应拥有提出担忧、报告问题与提出改进建议的渠道。共同设计工作坊(codesign workshops)、试点参与与反馈论坛能让员工感到:智能体不是被强加的,而是在协作中塑造出来的。这种参与式方法会把叙事从“技术对我们做了什么”转为“技术与我们一起建什么”。

文化适应还需要重塑对智能体的认知。智能体不应被呈现为沉默的竞争者,而应被呈现为协作者——把人从例行事务中解放出来,使其专注于依赖判断、创造力与关系经营的工作。领导者必须以身作则,强调那些“智能体处理常规任务、员工用独有人类能力创造更大价值”的案例。在文化转向中,正向协作的故事往往比统计数据更有力量。

组织应为长期作准备。早期兴奋可能会在出现失误后转为怀疑。沟通不仅要讲成功,也要讲失败——并说明学到了什么、系统如何改进——这体现诚实与成熟。对智能体的信任,就像对同事的信任一样,是通过一致性与透明度慢慢建立的,而不是靠口号与承诺一次性建立的。

通过再技能、支持与治理实现结构化转型(Structured Transition Through Reskilling, Support, and Governance)

除了伦理与沟通,组织还必须为人提供可适应的结构化路径。再技能与再部署是关键考量。对常规手工与基础认知任务的需求正在下降,而对社交、情感、技术与更高阶认知技能的需求正在上升。培训项目必须与岗位强相关且可落地。例如,行政人员可以被再培训为智能体监督者、数据集策展人,或异常处理管理员。这些是 mesh 真实创造的新岗位,培训应直接映射到这些岗位上。

但再技能不能是一锤子买卖。智能体演进很快,意味着人的角色会持续变化。组织需要持续学习基础设施:微证书(microcredentials)、按需培训平台,以及内部流动机制,使员工能随新角色出现而更流畅地迁移。把这种能力规模化,是许多领导者低估的挑战——它需要培训预算投入、与教育机构的合作,以及与职业发展框架的对齐。

支持不仅是技能层面。对受智能体采用影响较大的员工,应提供提前通知、辅导、再部署路径,并在必要时提供收入支持。以同理心管理转型的组织能保住士气与声誉;不这样做的组织会面临怨气、流失与舆论反弹。过去自动化浪潮的教训很清楚:技术成功不能成为忽视人的尊严的借口。

法律与合规保障必须内建。监管机构正审视 AI 的偏差、歧视与不透明性,而对影响劳动力的决策尤为严苛。由于智能体由 AI 驱动,智能体也会受到同等审视。任何一个智能体做出的、影响员工岗位、薪酬或职业轨迹的决策,都必须可由人类复核。审计追踪、申诉流程与日志留存都是不可妥协的。这些保障不仅保护员工,也保护组织免受法律与声誉风险。

治理也必须是多学科的。转型委员会应包含 HR、法务、伦理、运营与技术团队。这确保上线不是被当作狭义 IT 项目,而是系统性的组织变革。纳入员工代表会进一步增强正当性并促进认同。

分阶段自治部署也是关键机制。组织不应一开始就让智能体满血释放能力,而应从低风险、高影响任务起步。随着表现被证明可靠、错误预算保持健康,自治程度再逐步提升。这种渐进方式类似航空或医疗的执照制度:从业者通过证明能力逐步获得更大自主权。员工有时间适应,信任也能逐步积累。

成本控制应被纳入转型。若缺乏约束,智能体可能成为隐形成本中心——上下文窗口蔓延、API 调用过量、工具使用低效。把“按任务、按智能体”的单位经济性嵌入治理结构,可防止费用失控。转型委员会应定期把成本表现与安全与价值一起复盘。

另一个要素是岗位重塑的透明性。岗位说明书应更新以反映“人-智能体”协作的混合形态,并清晰划分智能体负责什么、人类保留什么。这能防止“职责被悄然蚕食”的感受,并帮助员工看见自身贡献仍然关键的部分。

重要的是,转型应被视为迭代过程,而不是一次性事件。组织应试点、学习、调整并循环。通过问卷、论坛与分析数据形成的反馈闭环,能让领导者尽早发现士气下滑、流失风险或文化抵触。结构化转型必须是动态的,随着智能体成熟与员工反应而演进。

像大多数转型一样,组织应以整体视角衡量成功。如果效率上升但信任崩塌,转型就不算成功。指标不仅要跟踪智能体表现,也要跟踪员工参与度、留存与满意度。事实是:只有当价值、安全、成本与人的福祉同步改善时,转型才称得上真正可持续。

工作的未来(The Future of Work)

“通过再技能、支持与治理实现结构化转型(Structured Transition Through Reskilling, Support, and Governance)”讨论的是转型——组织如何以审慎方式从纯人类运作走向一种环境:智能体开始与人并肩分担工作。那一视角聚焦近中期,并且以单个组织为范围,强调伦理、沟通、再技能与治理作为即时的变革杠杆。但转型只是故事的一部分。在它之外,还有更长的地平线:工作本身的未来——在那个未来里,智能体不只是对今天结构的“外挂”,而是明日经济中的核心参与者。

“工作的未来”常被当作一句略显俏皮的流行语,但它真正指向的是社会如何创造价值的一场深刻重构。从我们与客户一起演进其智能体未来的视角出发,我们已经能看到智能体带来的切实且广泛影响。人口结构变化、经济压力与技术突破正在汇聚,重塑工作的样貌与组织的运作方式。智能体——能够推理、适应并协同的自治数字实体——加速了这一转型。与更早的自动化浪潮不同,它们不只是执行任务;它们做出决策。这一转变要求我们以更具推测性的视角来观察:既以历史为参照,又对可能以全新方向展开的结果保持开放。

如图 13-5 所示,工作的未来会以同心层的方式展开影响:从中心的岗位出发,向外辐射至社会。核心处是从自动化到自治的转变:智能体从超越任务执行走向决策制定。第一圈涟漪直接作用于岗位——通过在人与智能体之间重新分配任务来重塑角色。

下一层反映劳动力影响与两极分化:一些从事例行岗位的工作者面临替代,而另一些则因“增强”而获得生产率提升。这些不均衡效应会在个人职业路径中扩散,拉大技能鸿沟,并考验社会与组织的韧性。

随着影响进一步扩大,我们预期会在组织层面出现混合职业与混合运行模型。新的角色——例如编队经理、可靠性工程师与智能体监督者——出现,用于在监督与创新之间取得平衡。这反过来会重构组织的运作方式,把它们推向更“网格化”(mesh-like)、更深度集成智能体的结构。

最后,最外层强调目的与持续学习,把影响扩展到整个社会。这里的挑战不仅是组织适配,更是在人类意义、尊严与适应力如何在快速变化的环境中被保存。向上的箭头强调:当我们向外移动,变化的规模会不断加剧——从岗位开始,最终会重塑整个社会与经济系统。

image.png

图 13-5 工作的未来与变化影响(Future of work and impact of change)

四个主题捕捉了这一展开中的未来本质:

  • 从自动化到自治的跃迁与任务的重新定义
  • 由组织文化塑造的不均衡、两极化劳动力影响
  • 混合职业与新运行模型的出现
  • 人类目的、适应力与终身学习的中心地位

每个主题都指向智能体可能如何重塑工作场所的不同维度:决策如何被委托,不平等如何出现或加深,组织如何重组,以及个体如何在工作中维持意义。合在一起,它们表明:由智能体推动的未来既不会统一,也不会必然到来,而是由一系列审慎选择塑造的结果。

岗位:从自动化到自治(Jobs: From Automation to Autonomy)

过去技术与智能体之间的一个关键区别,在于自动化(automation)与自治(autonomy)的差异。更早的技术——工业机器人、工作流软件、RPA——擅长遵循预先编程的规则。它们在边界清晰的领域内提供速度、一致性与效率。智能体则更进一步:它们能对含糊输入进行推理,在多种工具之间选择,并彼此协调以达成目标。组织不再只是自动化任务,而是在委托决策

然而,这一差别带来相当深刻的含义。自动化任务默认人类控制仍然完好;委托决策则要求信任:智能体的判断会与组织目标、策略与伦理对齐。问题不再只是“任务是否被正确完成”,而是“完成该任务的理由是否可靠、透明且可接受”。这进一步引出问责问题:当智能体做出影响客户、合作伙伴或员工的判断时,谁负责?

理解这种影响的一种方式,是把岗位重新看作任务束(bundles of tasks),而不是单体角色。在这一模型下,智能体可以剥离例行或基于规则的部分,把判断、创造力与关系建构留给人类。未来的岗位因此变成一幅马赛克:由人类与智能体的贡献共同拼接而成。这样的重构也把讨论从“岗位被消灭”转向“任务被重新分配”,后者对组织演化而言更细腻也更现实。

当组织采用任务视角时,新的治理挑战也会出现:谁决定哪些任务被委托、哪些被保留?智能体自治的阈值如何设定?用什么度量来判断委托是有效还是失败?若缺乏周密设计,决策委托可能漂移为隐性风险——智能体在超出预期范围内行动,或因人类角色退化为偶尔介入而导致监督缺位。

这里也存在文化含义——也许正是关键阻碍或卡点:当智能体进入闭环后,决策方式会如何改变。委托决策在体验上与委托任务完全不同,许多员工可能会抵触把判断交给算法系统。建立对自治的信任需要透明性:展示决策如何产生、为何选择某些结果、以及人类如何介入。缺少可解释性的自治,即便技术上有效,也可能被拒绝。

归根结底,从自动化走向自治迫使组织重新思考“控制”的性质。它并不是要整体替代人类,而是要重新设计人与机器之间责任边界。真正能繁荣的组织,会把委托当作一段被管理的关系,而不是权力的单向转移。

不均衡影响与劳动力两极分化(Uneven Impacts and Workforce Polarization)

智能体的崛起不会以同样方式影响所有劳动者或行业。有些职能——行政、文书与客服——由于任务重复且规则化,暴露在被替代的风险之下;另一些——战略、关系、创造性工作——更难被自动化,但同样会被重塑,因为智能体会增强决策并减轻信息负担。暴露程度的不均衡会形成两极化的劳动力市场:一些角色被掏空,另一些角色被抬升。

这种两极化可能加深不平等。例行岗位的工作者——往往更年轻或经验更少——可能更早面临替代且安全网更薄;相反,具备领域经验的资深专业人士可能发现自己的技能被智能体补强,从而变得更高效,而不是更不相关。没有再技能通道,适应者与被落下者之间的差距会扩大。

文化取向在塑造这些不均衡结果中起决定作用。成本导向文化的组织可能把智能体主要视为替代手段,通过裁减人力实现效率;敏捷导向的公司则更强调增强,用智能体扩大人类能力而非削弱它。初创公司由于不受遗留结构束缚,可能采用更极端的模式:很小的创始团队管理“智能体大军”,甚至直接跳过大规模雇佣人类。

这些文化模型的分化意味着:工作的未来不会在行业或地域之间呈现统一形态。有些领域可能高度智能体驱动、人类参与极少;另一些则保留以人为中心的方式,并由智能体提供支持。这种差异让预测更复杂,但也凸显组织价值观在塑造技术结果中的重要性。

两极分化也影响信任。在“替代为主”的组织中,即便是留下来的员工,士气也可能快速崩塌;而在“增强驱动”的文化里,员工更可能把智能体视为队友而非威胁,从而加强凝聚力。因此,文化既是智能体部署方式的原因,也是其结果。

更宏观地看,这种不均衡引出社会责任问题:如果替代集中在特定群体或行业,政府与机构将需要设计安全网与再培训计划以避免社会碎片化。今天组织做出的选择——替代、增强或混合——会在未来几十年向外扩散,影响社会结构。

混合职业与新运行模型的出现(Emergence of Hybrid Professions and Operating Models)

随着智能体进入职场,全新的职业会出现。正如云时代催生 DevOps 工程师、数据时代催生数据科学家,智能体时代将产生智能体产品负责人、可靠性工程师、人类在环监督者与编队经理。这些不会是边缘岗位;随着智能体编队规模化,它们会成为组织运作的关键组成。

混合职业弥合了人类监督与智能体自治之间的鸿沟。例如,智能体产品负责人定义目的、成功标准与护栏;可靠性工程师确保智能体可预测地运行,监控错误预算并处理事件;人类在环监督者设计测试用例并在输出偏离可接受边界时介入。这些角色锚定了创新与安全之间的平衡,确保智能体不仅有效,而且可信。

这些角色的兴起也反映了运行模型的更广泛变化。传统层级结构——每个决策点都依赖人类管理者——在智能体自治运行时无法扩展。组织将转向更“网格化”的结构:人类与智能体在流动网络中协作,由策略与运行时检查来治理。决策权会以不同方式分配,自治分层定义了智能体何时执行、何时通知、何时需要审批。

这种运行模型要求新的治理实践。HR、法务与合规职能需要把数字同事纳入其体系。绩效框架必须评估的不仅是员工,还包括智能体编队。事件响应计划必须假设智能体既可能带来成功,也可能带来失败。甚至入职与离职都会改变:智能体会被“雇用”“发证”“许可”,并最终以与人类同样严谨的流程“退役”。

文化再一次成为决定性因素。在成本导向组织中,这些混合角色可能被最小化,为了效率让智能体在有限监督下运行;在敏捷导向企业中,这些职业会被重视并扩展,因为它们承认智能体是在放大而不是替代人类能力。初创企业可能尝试极度精简的模式:少数人承担所有监督角色,而智能体执行绝大多数工作。

混合运行模型也挑战组织身份。习惯清晰权威链条的员工,可能会在责任由人和智能体共同分担的网状网络中感到不适。清晰沟通、透明性与角色定义将是避免混乱并确保问责的关键。

在很多方面,混合职业的出现与过去技术演进相似。云计算最初似乎只是 IT 的事情,但最终改变了组织设计的方方面面。这里也一样:智能体会从技术奇观开始,最终重塑领导力、文化与结构。

最终,成功的组织会把混合化视为优势而非妥协。通过承认智能体与人类的互补性,组织能够设计出兼具适应力与韧性的运行模型。混合劳动力不是权宜之计;它是未来的基础。

人类目的、适应力与持续学习(Human Purpose, Adaptability, and Continuous Learning)

如果智能体接管重复性与流程性任务,人类工作的意义就必须被重新定义。目的(purpose)成为核心。若组织让人类被边缘化到“可有可无”的角色,即便效率上升,也会导致士气低落;相反,若组织重塑岗位,强调判断、创造力、共情与创新,就能同时强化士气与绩效。因此,智能体未来必须以人类尊严为锚点,至少与效率同等重要。

适应力同样关键。智能体快速演进,工作流变化,工具可能在数月内就过时。工作者不能依赖静态专长,而必须持续学习与适应。终身学习成为生存技能,需要微证书、内部流动与再技能基础设施的支撑。投资适应力的组织将繁荣;把再技能当作一次性项目的组织将落后。

高价值技能也会转移。信息处理——曾经是人类能力的溢价来源——越来越多地由智能体承担。更重要的将是人际、组织与整合能力。人类的价值不在于与智能体竞争,而在于补足它们:编排协作、管理含糊性、连接多方。

制度也必须适应。为稳定职业生涯而设计的教育体系,需要为流动角色做好准备。政府必须设计支持的不仅是失业,更是“转场”的安全网,使劳动者能在智能体重塑行业时跨角色迁移。工作的社会契约需要更新,以反映“智能体也是价值创造参与者”的世界。

由智能体带来的工作未来不会一下子落地(当然,我们的水晶球在最好的时候也雾蒙蒙的)。短期内,我们可能会对它们期待过高,并在它们不可避免地跌跌撞撞时感到失望。但随着时间推移,它们的影响会比我们今天能想象的更深,改变岗位如何成形、组织如何运行、以及人们如何在工作中寻找意义。正如 Roy Amara 在 1978 年所说:“我们往往高估技术的短期影响,低估其长期影响。”真正的关键是在当下谨慎设计,这样当长期到来时,我们的智能体未来不仅更聪明,也更有人味。

总结(Summary)

本章展示了:运行模型与团队结构如何把“智能体的雄心”转化为可靠的实践。我们把战略落到执行层面,覆盖了结构、流程、技术、策略与指标;引入了编队(fleets)作为 mesh 的规模化单元;澄清了让智能体既安全又有用的人类角色;并为劳动力给出了一条更有人情味的转型路径。结论很简单:agentic mesh 的成功,与其说取决于代码,不如说同样取决于治理与问责。

下一步是规模化。随着 mesh 增长到成千上万甚至数百万参与者,靠手工逐个构建智能体将难以跟上。在第 14 章,我们将解释“智能体工厂(agent factory)”如何应对这一挑战:通过工业化智能体创建来规模化交付——模板沉淀最佳实践、认证强化信任、自动化加速部署、护栏确保智能体安全合规。它让企业能够在不失控的前提下,规模化构建并交付可信的智能体。