AI圈名词全解:LLM、Agent、MCP、RAG、Skill、Workflow……

0 阅读6分钟

最近AI圈的新词是不是越冒越多?什么LLM、Agent、MCP、RAG、Skill、Workflow……看着一堆英文缩写,是不是头都大了?

图片

别慌,今天我就用最接地气的话,帮你把这些概念捋明白。看完你会发现,这些高大上的名词,其实就干一件事——让我们用AI更省心。

来,咱们从头说。

1

先讲LLM,说白了就是个话痨机器人。

你肯定知道ChatGPT,它背后就是LLM大语言模型。简单说,就是个特别会接话的程序,你说一句它接一句,跟玩接龙似的。

一开始这东西挺笨,后来喂的数据多了、模型做大了,突然就变聪明了。这种突然开窍的现象,专业叫智能涌现,咱们理解成:量变引起质变,数据喂够了,它就懂了。

但它有个毛病:只会一问一答。你问完它答完,就等下一句,不会主动追问,也记不住之前聊过啥。

那怎么让它记住?

很简单,每次问的时候,把之前的聊天内容一起发过去。它一看就知道:哦,原来我们刚才聊的是这个。这种做法,就是给它上下文,聊天记录就是它的记忆。

你每次发给它的一整段话,就叫Prompt提示词。你看,三个词一下就懂了。

图片

2

再讲Agent,人话就是跑腿小助手。

LLM虽然能聊,但就是个嘴炮,只会说不会干。让它上网查资料?不行。让它写文件存起来?不行。它就只会在对话框里打字。

怎么办?找个帮手。

这个帮手就是Agent智能体。你说要干嘛,它去问LLM该怎么做,然后它亲自去执行,最后把结果给你。

比如你说帮我查下今天天气,Agent去问LLM:用户想查天气,我该怎么做?

LLM说:去天气网站查。

Agent就真的去查,把结果拿回来给你。

看明白了吧:LLM出主意,Agent跑腿。俩配合起来,才像个真助手。

但有个问题:Agent怎么听懂LLM的话?太随意就懵了。所以约定一套固定格式,比如用JSON。这套暗号就叫Function Calling函数调用。

就像去餐厅点餐,得按菜单说,不能说给我来个那个,服务员听不懂。

3

MCP、RAG、Search,都是Agent的工具箱。

Agent能跑腿,得有工具才行。上网查是工具,搜本地文件是工具,连数据库也是工具。

上网查资料,叫Search搜索。

搜本地文档,不是简单搜关键词,而是看意思像不像。比如你问怎么做饭,它能找到烹饪方法,字不一样但意思接近。这种就叫RAG检索增强生成,听着玄乎,其实就是按意思搜东西。

那工具多了怎么管?各搞各的Agent会乱。所以定个规矩:所有工具都用同一套标准,比如都提供功能列表和调用方法。

这套规矩就是MCP模型上下文协议,说白了就是让所有工具说普通话,方便Agent调用。

现在整个逻辑就通了:

你下命令 → Agent问LLM怎么办 → LLM出方案 → Agent用工具执行 → 把结果给你

LLM是军师,Agent是跑腿,工具箱就是家伙事儿。

4

Workflow、LangChain、Skill呢?这三个是固定套路的三种写法。

有些事你经常做,比如下载PDF→翻译成中文→保存成Word。每次让Agent从头想,又慢又费钱,调用LLM要花token,按字收费。

能不能把流程固定?当然可以。

程序员直接写代码,用LangChain框架把流程写死,稳定但不灵活。

不会代码的,用Workflow工作流,像搭积木一样拖拽,简单但还是不够灵活。

想又灵活又省事?用Skill技能。

你写个说明,告诉Agent遇到PDF用这个脚本,遇到Word用那个,把脚本准备好。Agent看到任务,自己看说明、自己选脚本。既省token,又保留灵活性。

打个比方:

LangChain = 死记硬背,一步不能错

Workflow = 照着说明书做菜

Skill = 看菜谱但会灵活调整

纯Agent = 即兴发挥的大厨,但偶尔会翻车

5

SubAgent?就是找临时工。

任务太复杂,Agent聊久了记录太多,脑子不够用,上下文太长容易乱。

那就找个临时工专门干小任务,干完就走,不占主Agent内存。这个临时工就是SubAgent子智能体。

就像搬家找搬运工,搬完就走,不跟着你。

6

讲了这么多,这些东西到底啥关系?

本质就一个:怎么让AI更好用。

所有技术都在做两件事:

一是往Prompt里塞更多信息,Search、RAG、Skill都是这条路

二是减少你跟LLM直接对话的次数,Agent、MCP干的就是这个

为啥?因为LLM本身很死,只看你给的信息。信息不够就乱编。所以要么给足信息,要么让Agent帮你准备好。

Agent的作用,就是干不需要LLM动脑的活:下载、调用工具、整理数据,这些确定的事,程序就能做。

只有拿不准的,比如用户想干嘛、该选哪个方案,才让LLM判断。

最终目的很简单:省时间、省钱、降低门槛。

7

那为啥这些词被吹得这么玄?

老实说,很多新概念就是换个名字。

比如有人问Function Calling和MCP啥关系?

完全不是一回事:

Function Calling是Agent和LLM的对话格式,

MCP是Agent和工具之间的规范。

风马牛不相及。

而且说实话,Skill以后可能会替代MCP。因为你可以把所有工具写进Skill说明里,常用工具直接内置在Agent里,MCP就多余了。

但市场是真的在爆发:2024年全球AI Agent市场52.9亿美元,预计2030年到471亿美元,数据是真实的。

只是不是每个新概念都值得追,很多都是换汤不换药。

8

未来会怎样?谁好用,谁就赢。

现在最大问题是token贵,Agent越智能,调用LLM越多,花钱越多。但这问题不会久,token只会越来越便宜。

你看Java的Spring Boot、Python的UV,成功就俩字:方便。不管包多大、快不快,先让开发者用着爽。

AI工具也一样:谁方便,谁火。

ChatGPT为啥火?技术不一定最强,但打开网页就能用,不用装环境、不用配设置,输问题就有答案。这种傻瓜式体验,才是关键。

未来一定会有开箱即用的超级Agent,装好就能用。到时候你根本不用懂MCP、Function Calling,只需要知道这东西能帮我干啥。

就像现在用微信,不用懂TCP/IP,只知道能聊天、发红包就行。

好了,现在再看这些词,是不是清晰多了?

简单总结:

LLM是会说话的军师、Agent是跑腿助手、MCP是工具通用规范、RAG和Search是找资料的方式、Skill是灵活的固定流程。

它们都在做一件事:让普通人不用懂技术,也能用AI干活。

图片

以后再碰到新概念,别被英文名吓到。

问自己三句:

它解决啥问题?

怎么解决的?

能用大白话讲明白吗?

抓住本质,别被营销词忽悠。AI就是工具,好不好用,就看能不能帮你省时间、省力气。