前言
随着 AI 工具逐渐渗透到我们的工作与生活,“大模型”“Token”“上下文窗口”这些词频繁出现,但很多人对它们的含义仍然一知半解。不懂这些核心概念,你可能永远只是在“玩”AI,而不是真正“用”好 AI。 本文将以通俗易懂的方式,带你了解 LLM 的基本原理、推理过程、上下文限制,以及如何更好地使用 AI 工具。
1. 什么是 LLM 和 Token?
1.1 LLM
LLM ( Large Language Model,大型语言模型):他是一个基于海量文本数据训练的模型,能够进行复杂对话、文本创作等任务。
1.2 ToKen
Token:文本或数据中的一个基本单元和符号,例如当我们输入"我想吃苹果", AI 只会把这几个字转换成特定的代码,例如转为"吃"和"苹果",像这样转化后的最小单位,就是 Token。
拓展:1个Token大概为1.5个汉字。
1.3 推理过程
AI 推理过程:AI 本身并不会思考,他只会通过前文已经有的 Token,计算下一个 Token 出现的概率。例如你问 LLM "心情不好会怎么做?",他会有着以下几个步骤。
AI 推理过程:
- 把这句话拆为几个核心 Token:"心情"、"不好"、"怎么做"。
- 在自己的数据里搜索"心情"、"不好"关联度最高的上下文
- 发现核心 Token 后常跟着听歌(30%)、跳舞(25%)、吃顿好的(20%)...
- 选择最高的 Token "听歌",并预测接下来的Token,回答"听听音乐,放松一下心情"。
这个过程看似在“思考”,实则只是基于概率的数学计算。因此,给 AI 投喂的数据越多,Token 越丰富,大模型推测越准。
2. 上下文窗口 与 "大模型幻觉"
2.1 Context Window
大模型本质上是数据函数,我们每次给大模型发送消息的时候,背后的程序会把之前的整段对话历史一起发过去,我们将它叫做上下文(Context),除了对话记录,还会包含工具列表,系统提示词等。
然而 LLM 大模型的脑容量是有上限的,例如 Claude opus 4.6 的容量极限是1000k,约150万汉字,这个极限成为上下文窗口(Context Window)
2.2 大模型幻觉
当 Token 消耗量达到上下文窗口时,他不会死机,而是会强制删除最早期的Token,但 LLM 大模型必须回答用户问题,即使没有相关数据,他也会编造一个看似合理实则错误的答案,这就是最基本的大模型幻觉。
2.3 RAG
为了避免大模型幻觉,我们使用一个叫做 RAG 的技术,它可以从产品手册中抽取与问题最为匹配的几个片段,然后只把这几个片段发给大模型,让大模型只根据这几个片段进行匹配(不是一整本书,就会节约上下文),这样的话就解决了上下文问题和大模型幻觉。
3. Prompt、Tool、MCP
3.1 基础Prompt
提示词(Prompt):大模型接受的具体问题或指令,例如发给AI的"我想吃苹果"。
但是如果只是简单的发送指令,例如"给我写首诗",AI 可能会给你打油诗、古诗、现代诗,并不稳定,可以这么写"请帮我写一首七言律诗,主题是写水、风格豪放"。
3.2 Prompt Engineering
提示词工程(Prompt Engineering):研究把话说清楚,让大模型更精准理解意图
不同的人使用 AI 的效果天差地别,表面看是 prompt 提示词的问题,实际上是信息组织能力的体现。
举个例子,例如"帮我拿下钥匙"、"帮我从餐桌上拿一个白色的电动车钥匙并给我"。这个例子在现实来看很蠢,会显得执行人没有常识,但在工作领域,这种表达显得十分重要,因为提供了足够信息,让执行人有明确的执行路径。
因此,学习提示词重要的不是结构、文笔,而是详细且通顺的逻辑,预期学习复杂的提示词模板,不如锻炼自己的逻辑表达,这才是用好 AI 的 "内功"。
3.3 Promot 分类
3.3.1 User Prompt
用户提示词(User Prompt):用户自己输入的提示词,例如 1+1 等于几。
3.3.2 System Prompt
系统提示词(System Prompt):系统提示词,用于设计模型的人设和风格。
这是开发者在后台设置的,用户并不会看到,但会一直影响大模型的行为
你是一个乐于助人、诚实、无害的AI助手。你的回答应简洁、清晰,避免过度复杂或模糊的表述。如果遇到不确定的问题,请直接说明“我不确定”或“我暂时无法回答”,不要编造信息。始终用中文回复,语气保持友好、专业。
3.4 Tool
大模型有一个缺点:无法与外界环境接触,只是预测下一个词。
例如你问他今天的天气,它并不能准确地回答,如这篇文章发布时,DeepSeek截止到2025年5月,如果不开联网搜索,往后的事件他是不知道的。
这时候需要工具(Tool),Tool本质上就是一个函数,你给他输入,他给你输出,在内部,他可能会调用不同的接口,有了它,大模型就可以回答你的问题了。
AI推理过程:
3.5 MCP
在上述的过程中,平台要把工具列表传给模型,还需要调用工具。
这套接入的规范,每个模型都不一样,因此,MCP诞生了。
MCP (Model Context Protocol):统一接口规范(统一的工具接入标准),至此,只需要开发一次工具,这个工具就可以被所有支持 MCP 的平台使用了。
4. Agent、Agent Skill
4.1 Agent
AI 可以自主规划,调用工具,直到完成用户任务的系统就称为 Agent。
比如给他一个复杂任务"帮我查一下今天适合穿什么",Agent 会调用经纬度(查询用户所在地)、天气(根据经纬度查询天气状况),最后给出回复。
4.2 Agent Skill
SKill 就是 Agent 的说明文档,里面包含了任务规则、执行步骤、输出格式等。
在 SKILL 内部包含了元数据层、指令层,元数据层包含了名字和描述,指令层包含了目标、执行步骤、判断规则、输出格式、示例。
拓展:LLM 大模型 与 日常 AI 的关系
我们日常使用的 AI 模型,例如 DeepSeek、豆包等应用,实则并不是 LLM 本身,只是基于 LLM 开发的 聊天机器人(Chatbot)。
举个例子,LLM 就像是汽车的发动机,虽然可以高速旋转(预测下一个 "Token"),但是无法驾驶;而 产品经理帮他装上了聊天界面、安全限制,还给他写了系统提示词(方向盘、座椅、安全系统),他才变成了一个可以听指令,安全行驶的汽车。
结语
恭喜你,现在已经掌握了 AI 世界的几个核心拼图:从 Token 的拆解、概率推理的真相,到上下文窗口的“记忆天花板”和幻觉的来源;从提示词的精准表达、工具的扩展能力,再到 MCP 统一标准和 Agent 的自主规划。