这张图片展示了在构建 AI Agent 时,两种处理复杂任务的不同策略:**Agent Skill(技能模式)与 SubAgent(子 智能体 模式)。它们的核心区别在于对上下文(Context)**的利用方式和影响程度。
我们可以从以下三个维度来拆解理解:
-
Agent Skill:共享上下文的“技能增强”
这种模式就像是给主 AI 穿上了一套“外挂装备”或加载了一个插件。
-
工作方式:AI 在当前对话窗口内直接调用一个函数或工具(如读取文件、代码分析)。所有的执行步骤和返回结果都直接堆叠在当前对话的历史记录中。
-
上下文特点:
- 关联大:技能执行的过程与当前对话逻辑紧密耦合。
- 占用高(图中显示 95%) :因为所有中间过程(如读取代码的长文本、分析过程)都会塞进当前对话的上下文窗口,很容易导致 Token 迅速耗尽。
- 对上下文影响小:这里指“逻辑干扰”小,它只是主 AI 的一种延伸能力。
-
适用场景:需要主 AI 实时掌握每一个技术细节,且任务步骤较短的情况。
-
SubAgent:独立上下文的“任务委派”
这种模式就像是主管(主 AI)把任务外包给了一个专业的下属(子智能体)。
-
工作方式:主 AI 发起一个指令,启动一个全新的、独立的对话环境给 SubAgent 去执行具体任务。任务完成后,SubAgent 只向主 AI 汇报最终结果(如“发现 2 个问题”)。
-
上下文特点:
- 关联小:子智能体在自己的空间里折腾,不干扰主对话的逻辑流。
- 占用低(图中显示 12%) :由于中间产生的冗长过程数据(如几百行代码的审核过程)被隔离在子环境,主对话只接收精简后的结果,极大地节省了 Token。
- 对上下文影响大:这里指“结果导向”强,主 AI 只需根据最终汇报进行后续决策。
-
适用场景:处理极其消耗上下文的繁重任务,如大规模代码审计、长文档总结或复杂的研究调研。
-
核心对比总结
| 维度 | Agent Skill (技能) | SubAgent (子智能体) |
|---|---|---|
| 执行环境 | 与主对话在同一个上下文窗口 | 独立的对话上下文环境 |
| Token 消耗 | 极高,包含所有执行细节 | 极低,只传输指令和结果 |
| 透明度 | 过程全公开,用户可见详细步骤 | 过程黑盒,只呈现最终交付物 |
| 最适合 | 简单的原子操作(如查天气、搜文件) | 复杂的模块化任务(如写一个完整功能) |
一句话总结:
Agent Skill 是让 AI “亲力亲为”,虽然看得细但容易累(内存/Token 满);SubAgent 是让 AI 学会“授权”,通过空间隔离来处理更庞大、更复杂的任务。
您是正在开发相关的 AI 应用,还是在研究如何优化当前 Agent 的 Token 使用效率?我们可以针对具体的业务场景再聊聊。