前言
上一篇学习到了 Agent 的基础概念,特点,分类,核心组件,工作模式等知识,以及对应的生活中的应用场景都有哪些,接下来学习大语言模型(LLM)基础知识,了解 LLM 的原理、架构、调用方式和能力边界,为 Agent 开发提供基础
为什么 LLM 基础是 Agent 开发的必修课?
学习 AI Agent 相关开发知识,必须学习大语言模型(LLM)基础。LLM 是 AI Agent 的核心智能引擎,没有对 LLM 原理、能力边界和调用方式的理解,Agent 开发只能停留在 “调包” 层面,无法解决复杂场景的需求
以下为 Agent 开发视角4个核心知识点
Transformer 架构
Transformer 是 LLM 的基础架构,Google 提出。它彻底改变了传统的序列建模方式,采用 自注意力机制(Self-Attention)实现了对长文本的高效处理
自注意力机制: 像我们「带着问题阅读」,能同时关注整句话的所有词,把相关的信息联系起来。比如读「他说今天下雨,所以我带了____」,我们会根据前面的「下雨」和后面的「带了」,立刻知道这里应该填「伞」
关键组件
- 编码器(Encoder):处理输入序列,捕获上下文信息
- 解码器(Decoder):生成输出序列,结合编码器信息和已生成内容
- 多头自注意力机制(Multi-Head Self-Attention):同时从多个角度关注输入序列的不同位置
- 位置编码(Positional Encoding):为输入序列添加位置信息,解决 Transformer 本身没有顺序感知能力的问题
- 前馈神经网络(Feed-Forward Network):对注意力机制的输出进行非线性变换
Agent 开发关联
在 Agent 开发中,Transformer 架构的理解直接影响:
-
长上下文处理能力:
- Agent 需要处理多轮对话历史、文档内容等长文本,Transformer 的自注意力机制决定了其上下文窗口大小
- 开发时需考虑模型的上下文限制,合理设计对话历史管理策略
-
生成质量控制:
- 理解解码器的生成机制(自回归生成+掩码自注意力),有助于优化 Agent 的输出质量
- 通过束搜索(Beam Search)、温度参数等控制 Agent 输出的多样性和准确性
-
模型选择:
- 不同的 Transformer 变体(如 GPT-3/4、Llama、Claude)在架构细节上有差异,影响其在 Agent 场景的适用性
- 例如,Claude 的长上下文能力更适合需要处理大型文档的 Agent
自回归生成使Agent能够产生连贯的自然语言输出,确保对话、推理等任务的流畅性。通过优化自回归生成过程,可以提升Agent输出的逻辑清晰度和上下文相关性
掩码自注意力保证了Agent在生成内容时遵循自然语言的时序特性,避免了"作弊"现象。这使得Agent在推理、决策等任务中能够像人类一样逐步思考,提升输出的合理性和可解释性
两者结合的作用 自回归生成与掩码自注意力是相辅相成的:
- 训练阶段:掩码自注意力确保模型在学习时只能依赖历史信息,为自回归生成奠定基础
- 推理阶段:自回归生成过程利用训练好的模型,通过一次生成一个 token 的方式产生输出
- 质量优化:理解这一机制有助于通过调整生成策略(如束搜索、温度参数等)来控制Agent输出的多样性和准确性
在Agent开发中的重要性 输出质量优化:通过调整自回归生成的参数(如top-k、top-p采样),可以平衡Agent输出的创造性和准确性 推理能力提升:掩码自注意力机制使Agent能够更好地处理长上下文,提升复杂推理任务的表现 可控性增强:理解生成机制有助于实现对Agent输出的更好控制,满足特定应用场景的需求
预训练与微调
LLM 的训练分为两个阶段:
预训练(Pre-training)
- 模型在海量无标注文本数据上进行训练
- 学习目标:预测下一个词(自回归语言建模)或填空(掩码语言建模)
- 目的:让模型学习语言规则、常识知识和世界模型
微调(Fine-tuning)
- 预训练模型在特定任务的标注数据上进行进一步训练
- 主要方法:
- 监督微调(Supervised Fine-tuning, SFT):使用人工标注的指令-响应对
- 奖励模型训练(Reward Model Training):训练模型评估输出质量
- 强化学习微调(RLHF, Reinforcement Learning from Human Feedback):让模型输出更符合人类偏好
Agent 开发关联
-
Agent 定制化开发:
- 可以通过微调将通用 LLM 定制为特定领域的 Agent
- 例如:为金融领域开发 Agent 时,可以在金融语料上进行领域微调
-
指令遵循能力:
- 通过 SFT 训练,让 LLM 具备更好的指令理解和执行能力,这是 Agent 能「听懂」用户需求的基础
-
行为对齐:
- 通过 RLHF 确保 Agent 的行为符合人类价值观和安全规范
- 避免 Agent 生成有害或偏离预期的内容
-
轻量级微调方案:
- 考虑到全参数微调的成本,Agent 开发中常用 LoRA、QLoRA 等参数高效微调方法
- 降低硬件要求,加速开发迭代
SFT(Supervised Fine-Tuning) ,即 监督微调 ,是大语言模型(LLM)开发中的关键技术环节,用于将预训练模型转变为能够理解和执行人类指令的实用系统 RLHF(人类反馈强化学习) :进一步优化模型输出的对齐性和安全性
Prompt Engineering
核心概念
Prompt Engineering(提示工程)是指通过精心设计和优化输入提示,使 LLM 更准确地理解任务需求并生成高质量输出的技术。
关键技术
- 指令提示(Instruction Prompting):清晰描述任务要求
- 上下文提示(Context Prompting):提供相关背景信息
- 示例提示(Example Prompting):提供任务示例
- 思维链提示(Chain-of-Thought Prompting):引导模型分步思考
- 角色提示(Role Prompting):为模型设定特定角色
Agent 开发关联
-
Agent 能力激活:
- 通过 Prompt Engineering 可以激活 LLM 原本具备但未被充分利用的能力
- 例如:使用思维链提示让 Agent 具备更强的推理能力
-
任务分解与执行:
- 设计结构化 Prompt 引导 Agent 将复杂任务分解为子任务
- 例如:开发代码生成 Agent 时,通过 Prompt 引导模型先理解需求,再设计方案,最后编写代码
-
多工具协同:
- 通过 Prompt Engineering 实现 Agent 与外部工具的协同
- 例如:设计 Prompt 让 Agent 在需要时自动调用搜索、计算器等工具
-
对话管理:
-
优化对话历史的组织方式,使 Agent 能更好地理解上下文
-
例如:使用轮次标记、角色区分等方式结构化对话历史
-
Few-shot Learning
核心概念
Few-shot Learning(少样本学习)是指 LLM 仅通过少量示例(通常 1-5 个)就能快速学习新任务的能力。
相关概念
- Zero-shot Learning:无需示例,直接理解并执行新任务
- One-shot Learning:仅需 1 个示例
- Few-shot Learning:需要 2-5 个示例
- In-context Learning:通过上下文示例进行学习,不改变模型参数
Agent 开发关联
-
快速适配新场景:
- Agent 可以通过 Few-shot Learning 快速适应新的应用场景
- 例如:给金融 Agent 提供几个医疗领域的问答示例,它就能初步处理医疗咨询
-
个性化定制:
- 通过提供用户偏好的示例,让 Agent 生成更符合用户需求的内容
- 例如:提供用户喜欢的写作风格示例,让 Agent 生成符合该风格的内容
-
复杂任务处理:
- 对于复杂任务,通过提供步骤示例引导 Agent 完成
- 例如:开发数据分析 Agent 时,提供数据处理流程的示例
-
跨领域迁移:
- 利用 LLM 的少样本学习能力,实现 Agent 在不同领域间的迁移
- 降低针对每个领域单独开发 Agent 的成本
总结
现在是日常用AI做前端开发,前端岗位市面上已经几乎没有了,而且薪资也低的离谱了,现在积极转型学习AI Agent相关知识和应用
作为未来的用AI开发 Agent 的提示词开发者,理解 LLM 核心知识点的价值能让自己不止是一个调包仔或者提示词开发者吧,在某些特殊的实际场景下,肯定需要人具备设计,分析和决策的相关能力的
AI学习转型之路很长,也坎坷,一起加油
欢迎留言交流,如果觉得有帮助,可以
点个赞支持一下公众号:草帽lufei