扒开AI名词的皮囊,看看里面到底装了些什么
笔记作者:皮皮神大人
先讲个真实感受:去年有段时间我几乎每天都能在技术群、推特、公众号里看到新的AI名词。今天出来个 Agent,明天有人喊 MCP,后天又冒出来 Skill、Sub-agent、记忆体……感觉这帮人造词的速度比模型吐token还快。
那种焦虑我太懂了——好像不把这些词全吃透,下一秒就要被淘汰。
但后来我干了一件事:不追名词,去追工程结构。把代码拉下来,把LangGraph、LangChain、各种Agent框架的源码和架构图翻来覆去地看,突然发现这些千奇百怪的名词,大部分都能塞进一个三层架构里。而理解了这三层,你就拿到了看待所有新名词的“上帝视角”。
这篇文章就是我想用最口语化的方式,把这件事儿掰碎讲清楚。咱们一边用LangGraph当例子,一边把这些名词挨个钉在它们该在的位置上。
1. 名词爆炸的根源:大家在同一件事的不同切面上疯狂造词
很多人焦虑是因为感觉自己在学一百种完全不同的东西。但实际上,大部分新名词的本质就是“提示词 + 上下文 + 工具调用”工程化之后的不同切面。
你用一句提示词让大模型查天气,这叫简单的LLM调用。
你把查天气封装成一个函数并配上描述,这叫工具(Tool)。
你再写一个循环让模型自己决定何时调用工具、何时停止,这就形成了Agent。
你把这个Agent的状态存起来,让它记住上一次你问过什么,这就有了Memory。
你让这个Agent能调另一个Agent去处理复杂的子任务,于是就有了Sub-agent。
看出规律没?都是同一套东西,只是在工程抽象层面被起了不同的名字。
那么,为了不被带偏,我们直接画出一个统一的工程结构图视角。
2. 统一工程结构图:三层足矣
我个人总结,现在市面上90%的AI应用都能塞进这个三层结构:
- 交互/编排层(负责控制流程、编排节点、管理对话)
- 模型层(大模型核心,负责智能判断与文本生成)
- 工具/数据层(执行具体动作、知识检索、外部API)
你想象一个智能咖啡师:一个顾客进来点了一杯“老规矩”,系统需要决定“老规矩”是什么(记忆),让大模型分析意图(模型层),然后调用做咖啡的机器(工具),并且整个对话有来有回(编排)。是不是瞬间感觉三层都有了?
接下来,我们就用LangGraph作为主线例子,把每个名词扔进这三层里,看看它到底是干什么的。
3. 交互/编排层 —— “谁在讲故事,谁在决定步骤”
这一层是整个应用的导演。它不直接算答案,但它决定“下一步该干什么”。
Workflow(工作流)
最简单理解就是一串既定步骤。比如:接收消息 → 调用LLM → 返回结果。这种固定图谱就是Workflow。在LangGraph里,你定义节点和边,画出一个有向图,这个图就叫Workflow。
举个例子: 一个翻译机器人。每次都是直接走“输入原文 → 大模型翻译 → 输出”三步,没有分支,这就是Workflow。
Agent(智能体)
Agent比Workflow多了一个关键能力:动态决策。它不是一条路走到黑,而是允许模型在中间节点根据情况选择下一步走哪条边。
在LangGraph里,如果你加一条条件边(conditional edge),让模型判断“现在需要查资料还是直接回答”,那这个Workflow就变成了Agent。
对比一下:
- Workflow:像地铁,路线固定。
- Agent:像打车,每个路口能重新规划。
所以Agent本质就是 Workflow + 动态路由。很多人把Agent神秘化,其实就是把决策权交给了模型而已。
控制逻辑与流程管理
这算是上面两者的总称。LangGraph的 StateGraph 负责管理整个应用的流转状态,条件边、循环、中断恢复,这些都属于控制逻辑。它决定了你的应用是老老实实的链条还是个能跳来跳去的智能体。
Memory(记忆)
记忆其实是存储在编排层中的状态。LangGraph里有个核心概念叫 State,这个State可以在节点之间传递并且持久化。你把对话历史存进State,那就是短期记忆;你把用户偏好存进外部数据库并在每次运行时加载,那就是长期记忆。
口语化解释: 没有记忆的Agent就像每次见面都问“你叫什么来着”的同事。有记忆的Agent会说“老规矩,还是上次那个拿铁吗?”
Sub-agent(子智能体)
当一个Agent太胖了,你就可以把某些子任务分包给另一个独立的Agent。主Agent只负责委派和汇总。LangGraph里你可以把一个子图直接作为一个节点(用 add_node 加一个编译好的子图),主图决定什么时候调用它。这就是Sub-agent的工程真相。
Skill(技能)
Skill是最近被炒起来的概念,本质上就是一个打包好的提示词+工具+处理逻辑的模块。它比Tool更“肥”,通常包含了特定领域的角色设定和知识。就好像你给咖啡师装了一个“拉花技能包”,里面包含了步骤和模具。
LangChain 与 LangGraph 的恩怨
这俩词经常一起出现。用一句话概括:
- LangChain 是早期用“链式调用”快速搭LLM应用的框架,强调简单,但一到复杂动态流程就各种hack。
- LangGraph 可以看作LangChain的“底层引擎升级版”,直接基于图结构做状态管理,尤其擅长Agent和复杂Workflow。
所以现在很多新项目直接用LangGraph做编排,而把LangChain里的现成Tool包装拿过来用。这是理解“编排层演进”的一个好例证。
4. 模型层(LLM Core)—— “大脑只负责思考和生成”
这一层最简单但也最容易被神话。它就是那个大语言模型本身,无论是GPT-4、Claude还是本地部署的模型。
它的核心任务只有两个:
- 智能判断(要不要调工具?下一步走哪条边?)
- 文本生成(最终给用户看的自然语言)
在LangGraph里,模型通常出现在一个节点内,接收State中的消息,产出新的回复或决策。你给它什么提示词、什么上下文,它就产出相应的东西。没有魔法。
为什么要把模型层单独抽出来?
因为你随时可以换模型,而不用动编排逻辑。今天用GPT,明天换Claude,改一行代码就行。这种解耦带来的灵活性,是工程化的第一优势。
5. 工具/数据层 —— “干活的双手和查资料的图书馆”
这一层负责所有非生成类的具体动作。
Tool/Function(工具/函数)
就是一个能被模型调用的函数。比如 get_weather(city),你写个函数,加上一个清晰的描述,模型就能在需要的时候生成调用参数。在LangGraph中,你可以把Tool绑定到模型上,然后当模型输出“我要调工具”时,你就在另一个节点里执行它,把结果送回模型。
RAG(检索增强生成)
RAG也是工具的一种,只不过它太常用了,单独立了个名号。它的本质是:先从向量数据库或搜索引擎里捞出相关文档片段,然后把这些片段塞进提示词的上下文,让模型基于这些内容回答。
举个例子: 你问“公司年假怎么算?”,系统先用你的问题去检索公司制度文件,找到相关段落,然后把这些段落跟你的问题一起喂给模型。这样模型就能回答出准确的制度条款,而不是瞎编。
优势非常明显: 让模型拥有了外部知识,而且可以实时更新,不用重新训练。工程上,它就是工具层的一个“检索节点”。
MCP(Model Context Protocol)
这个词最近火得一塌糊涂。先别慌,它既不是新模型,也不是新架构。
MCP是一个标准化协议,用来让工具提供方和AI应用之间用统一的方式对接。以前你想让模型调用天气预报API,得自己写适配,工具一多就乱套。MCP相当于制定了一个“工具接口标准”,你按这个标准暴露工具,任何支持MCP的编排层都能即插即用。
举个例子: 就像USB统一了外设接口,以前每个设备都得装不同驱动,现在插上就能认。MCP就是工具层的USB协议。它让工具/数据层的扩展变得极其丝滑,不再被供应商锁定。
6. 用一张图把所有名词钉回去
现在,我们用最直白的对应关系把它们归位。
- 交互/编排层:Agent、Workflow、LangGraph、LangChain、Sub-agent、Skill、Memory、控制逻辑
- 模型层:LLM Core、推理、智能判断、文本生成
- 工具/数据层:Tool、Function、RAG、MCP、数据库、API
当你看到一个耀眼的新名词,就做一件事:
把它按功能塞进这三层中的某一层,然后问一句:“它是不是本质上还是提示词+上下文+工具调用?”
绝大多数情况下答案是“是”。
7. 为什么理解底层工程结构才是核心竞争力?
现在回到开头说的那句话。因为你一旦看清了三层骨架,就会发现:
- 新名词不过是某一层上的微创新或重新打包。
- 你不再害怕错过哪个词,因为你已经掌握了理解它们的通用框架。
- 面试、选型、架构设计的时候,你能穿透PPT直达工程真相。
这些技术的核心优势,说到底就是三个词:解耦、可扩展、可控。
- 解耦:模型、逻辑、数据各自独立,换模型不伤筋动骨,换工具不影响思考。
- 可扩展:加新工具像插U盘,MCP让整个生态打通,RAG让知识无限外挂。
- 可控:Workflow给你确定性的流程,Agent给你灵活性,而精确的状态管理让你能随时调试、回放、中断恢复。
8. 最后,送给同样被名词暴击的你
我写这篇笔记的时候,正好在重构一个客户服务Agent。产品经理不停地提:“我们要不要加个Skill?能不能做成Multi-agent?用MCP接他们的CRM好吗?”
如果是一年前的我,估计已经开始焦虑地刷文档了。但现在我脑子里先浮现那个三层图,然后把需求翻译成:编排层加个子图,工具层接MCP封装CRM操作,模型层换个推理更好的模型。好了,能动手了。
所以,皮皮神大人给你的终极建议:
下次再有人抛出来一个你没听过的AI名词,别慌。把它拆开,看它在三层结构里属于哪一层,看它到底改变了提示词、上下文还是工具调用。大概率你会发现自己其实早就理解它的爸爸是谁了。
保持冷静,去读代码,去画架构图。那种“新词疲劳”就会慢慢变成一种“看穿本质”的快感。
本文由皮皮神大人念叨而成,如有雷同,纯属英雄所见略同。