Skills和SubAgent的选择

0 阅读3分钟

这张图片展示了在构建 AI Agent 时,两种处理复杂任务的不同策略:**Agent Skill(技能模式)与 SubAgent(子 智能体 模式)。它们的核心区别在于对上下文(Context)**的利用方式和影响程度。

我们可以从以下三个维度来拆解理解:


  1. Agent Skill:共享上下文的“技能增强”

这种模式就像是给主 AI 穿上了一套“外挂装备”或加载了一个插件。

  • 工作方式:AI 在当前对话窗口内直接调用一个函数或工具(如读取文件、代码分析)。所有的执行步骤和返回结果都直接堆叠在当前对话的历史记录中。

  • 上下文特点

    • 关联大:技能执行的过程与当前对话逻辑紧密耦合。
    • 占用高(图中显示 95%) :因为所有中间过程(如读取代码的长文本、分析过程)都会塞进当前对话的上下文窗口,很容易导致 Token 迅速耗尽。
    • 对上下文影响小:这里指“逻辑干扰”小,它只是主 AI 的一种延伸能力。
  • 适用场景:需要主 AI 实时掌握每一个技术细节,且任务步骤较短的情况。


  1. SubAgent:独立上下文的“任务委派”

这种模式就像是主管(主 AI)把任务外包给了一个专业的下属(子智能体)。

  • 工作方式:主 AI 发起一个指令,启动一个全新的、独立的对话环境给 SubAgent 去执行具体任务。任务完成后,SubAgent 只向主 AI 汇报最终结果(如“发现 2 个问题”)。

  • 上下文特点

    • 关联小:子智能体在自己的空间里折腾,不干扰主对话的逻辑流。
    • 占用低(图中显示 12%) :由于中间产生的冗长过程数据(如几百行代码的审核过程)被隔离在子环境,主对话只接收精简后的结果,极大地节省了 Token。
    • 对上下文影响大:这里指“结果导向”强,主 AI 只需根据最终汇报进行后续决策。
  • 适用场景:处理极其消耗上下文的繁重任务,如大规模代码审计、长文档总结或复杂的研究调研。


  1. 核心对比总结

维度Agent Skill (技能)SubAgent (子智能体)
执行环境与主对话在同一个上下文窗口独立的对话上下文环境
Token 消耗极高,包含所有执行细节极低,只传输指令和结果
透明度过程全公开,用户可见详细步骤过程黑盒,只呈现最终交付物
最适合简单的原子操作(如查天气、搜文件)复杂的模块化任务(如写一个完整功能)

一句话总结:

Agent Skill 是让 AI “亲力亲为”,虽然看得细但容易累(内存/Token 满);SubAgent 是让 AI 学会“授权”,通过空间隔离来处理更庞大、更复杂的任务。

您是正在开发相关的 AI 应用,还是在研究如何优化当前 Agent 的 Token 使用效率?我们可以针对具体的业务场景再聊聊。