5分钟读懂 LLM 核心概念:从 Token、Prompt 到 MCP、Agent

0 阅读6分钟

前言

随着 AI 工具逐渐渗透到我们的工作与生活,“大模型”“Token”“上下文窗口”这些词频繁出现,但很多人对它们的含义仍然一知半解。不懂这些核心概念,你可能永远只是在“玩”AI,而不是真正“用”好 AI。   本文将以通俗易懂的方式,带你了解 LLM 的基本原理、推理过程、上下文限制,以及如何更好地使用 AI 工具。


1. 什么是 LLM 和 Token?

1.1 LLM

LLM ( Large Language Model,大型语言模型):他是一个基于海量文本数据训练的模型,能够进行复杂对话、文本创作等任务。

1.2 ToKen

Token:文本或数据中的一个基本单元和符号,例如当我们输入"我想吃苹果", AI 只会把这几个字转换成特定的代码,例如转为"吃"和"苹果",像这样转化后的最小单位,就是 Token。

拓展:1个Token大概为1.5个汉字。

1.3 推理过程

AI 推理过程:AI 本身并不会思考,他只会通过前文已经有的 Token,计算下一个 Token 出现的概率。例如你问 LLM "心情不好会怎么做?",他会有着以下几个步骤。

AI 推理过程

  • 把这句话拆为几个核心 Token:"心情"、"不好"、"怎么做"。
  • 在自己的数据里搜索"心情"、"不好"关联度最高的上下文
  • 发现核心 Token 后常跟着听歌(30%)、跳舞(25%)、吃顿好的(20%)...
  • 选择最高的 Token "听歌",并预测接下来的Token,回答"听听音乐,放松一下心情"。

在这里插入图片描述

这个过程看似在“思考”,实则只是基于概率的数学计算。因此,给 AI 投喂的数据越多,Token 越丰富,大模型推测越准。

2. 上下文窗口 与 "大模型幻觉"

2.1 Context Window

大模型本质上是数据函数,我们每次给大模型发送消息的时候,背后的程序会把之前的整段对话历史一起发过去,我们将它叫做上下文(Context),除了对话记录,还会包含工具列表,系统提示词等。

然而 LLM 大模型的脑容量是有上限的,例如 Claude opus 4.6 的容量极限是1000k,约150万汉字,这个极限成为上下文窗口(Context Window)

2.2 大模型幻觉

当 Token 消耗量达到上下文窗口时,他不会死机,而是会强制删除最早期的Token,但 LLM 大模型必须回答用户问题,即使没有相关数据,他也会编造一个看似合理实则错误的答案,这就是最基本的大模型幻觉

2.3 RAG

为了避免大模型幻觉,我们使用一个叫做 RAG 的技术,它可以从产品手册中抽取与问题最为匹配的几个片段,然后只把这几个片段发给大模型,让大模型只根据这几个片段进行匹配(不是一整本书,就会节约上下文),这样的话就解决了上下文问题和大模型幻觉。

3. Prompt、Tool、MCP

3.1 基础Prompt

提示词(Prompt):大模型接受的具体问题或指令,例如发给AI的"我想吃苹果"。 在这里插入图片描述

但是如果只是简单的发送指令,例如"给我写首诗",AI 可能会给你打油诗、古诗、现代诗,并不稳定,可以这么写"请帮我写一首七言律诗,主题是写水、风格豪放"。 在这里插入图片描述

3.2 Prompt Engineering

提示词工程(Prompt Engineering):研究把话说清楚,让大模型更精准理解意图

不同的人使用 AI 的效果天差地别,表面看是 prompt 提示词的问题,实际上是信息组织能力的体现。

举个例子,例如"帮我拿下钥匙"、"帮我从餐桌上拿一个白色的电动车钥匙并给我"。这个例子在现实来看很蠢,会显得执行人没有常识,但在工作领域,这种表达显得十分重要,因为提供了足够信息,让执行人有明确的执行路径。

因此,学习提示词重要的不是结构、文笔,而是详细且通顺的逻辑,预期学习复杂的提示词模板,不如锻炼自己的逻辑表达,这才是用好 AI 的 "内功"。

3.3 Promot 分类

3.3.1 User Prompt

用户提示词(User Prompt):用户自己输入的提示词,例如 1+1 等于几。

3.3.2 System Prompt

系统提示词(System Prompt):系统提示词,用于设计模型的人设和风格。

这是开发者在后台设置的,用户并不会看到,但会一直影响大模型的行为

你是一个乐于助人、诚实、无害的AI助手。你的回答应简洁、清晰,避免过度复杂或模糊的表述。如果遇到不确定的问题,请直接说明“我不确定”或“我暂时无法回答”,不要编造信息。始终用中文回复,语气保持友好、专业。

3.4 Tool

大模型有一个缺点:无法与外界环境接触,只是预测下一个词。

例如你问他今天的天气,它并不能准确地回答,如这篇文章发布时,DeepSeek截止到2025年5月,如果不开联网搜索,往后的事件他是不知道的。

这时候需要工具(Tool),Tool本质上就是一个函数,你给他输入,他给你输出,在内部,他可能会调用不同的接口,有了它,大模型就可以回答你的问题了。

AI推理过程在这里插入图片描述

3.5 MCP

在上述的过程中,平台要把工具列表传给模型,还需要调用工具。

这套接入的规范,每个模型都不一样,因此,MCP诞生了。

MCP (Model Context Protocol):统一接口规范(统一的工具接入标准),至此,只需要开发一次工具,这个工具就可以被所有支持 MCP 的平台使用了。

4. Agent、Agent Skill

4.1 Agent

AI 可以自主规划,调用工具,直到完成用户任务的系统就称为 Agent。

比如给他一个复杂任务"帮我查一下今天适合穿什么",Agent 会调用经纬度(查询用户所在地)、天气(根据经纬度查询天气状况),最后给出回复。

4.2 Agent Skill

SKill 就是 Agent 的说明文档,里面包含了任务规则、执行步骤、输出格式等。

在 SKILL 内部包含了元数据层指令层,元数据层包含了名字描述,指令层包含了目标执行步骤判断规则输出格式示例

拓展:LLM 大模型 与 日常 AI 的关系

我们日常使用的 AI 模型,例如 DeepSeek、豆包等应用,实则并不是 LLM 本身,只是基于 LLM 开发的 聊天机器人Chatbot)。

举个例子,LLM 就像是汽车的发动机,虽然可以高速旋转(预测下一个 "Token"),但是无法驾驶;而 产品经理帮他装上了聊天界面安全限制,还给他写了系统提示词(方向盘、座椅、安全系统),他才变成了一个可以听指令,安全行驶的汽车。

在这里插入图片描述

结语

恭喜你,现在已经掌握了 AI 世界的几个核心拼图:从 Token 的拆解、概率推理的真相,到上下文窗口的“记忆天花板”和幻觉的来源;从提示词的精准表达、工具的扩展能力,再到 MCP 统一标准和 Agent 的自主规划。