Agent 开发的必修课:LLM基础

26 阅读8分钟

前言

上一篇学习到了 Agent 的基础概念,特点,分类,核心组件,工作模式等知识,以及对应的生活中的应用场景都有哪些,接下来学习大语言模型(LLM)基础知识,了解 LLM 的原理、架构、调用方式和能力边界,为 Agent 开发提供基础

为什么 LLM 基础是 Agent 开发的必修课?

学习 AI Agent 相关开发知识,必须学习大语言模型(LLM)基础。LLM 是 AI Agent 的核心智能引擎,没有对 LLM 原理、能力边界和调用方式的理解,Agent 开发只能停留在 “调包” 层面,无法解决复杂场景的需求


以下为 Agent 开发视角4个核心知识点

Transformer 架构

Transformer 是 LLM 的基础架构,Google 提出。它彻底改变了传统的序列建模方式,采用 自注意力机制(Self-Attention)实现了对长文本的高效处理

自注意力机制: 像我们「带着问题阅读」,能同时关注整句话的所有词,把相关的信息联系起来。比如读「他说今天下雨,所以我带了____」,我们会根据前面的「下雨」和后面的「带了」,立刻知道这里应该填「伞」

关键组件

  • 编码器(Encoder):处理输入序列,捕获上下文信息
  • 解码器(Decoder):生成输出序列,结合编码器信息和已生成内容
  • 多头自注意力机制(Multi-Head Self-Attention):同时从多个角度关注输入序列的不同位置
  • 位置编码(Positional Encoding):为输入序列添加位置信息,解决 Transformer 本身没有顺序感知能力的问题
  • 前馈神经网络(Feed-Forward Network):对注意力机制的输出进行非线性变换

Agent 开发关联

在 Agent 开发中,Transformer 架构的理解直接影响:

  1. 长上下文处理能力

    • Agent 需要处理多轮对话历史、文档内容等长文本,Transformer 的自注意力机制决定了其上下文窗口大小
    • 开发时需考虑模型的上下文限制,合理设计对话历史管理策略
  2. 生成质量控制

    • 理解解码器的生成机制(自回归生成+掩码自注意力),有助于优化 Agent 的输出质量
    • 通过束搜索(Beam Search)、温度参数等控制 Agent 输出的多样性和准确性
  3. 模型选择

    • 不同的 Transformer 变体(如 GPT-3/4、Llama、Claude)在架构细节上有差异,影响其在 Agent 场景的适用性
    • 例如,Claude 的长上下文能力更适合需要处理大型文档的 Agent

自回归生成使Agent能够产生连贯的自然语言输出,确保对话、推理等任务的流畅性。通过优化自回归生成过程,可以提升Agent输出的逻辑清晰度和上下文相关性

掩码自注意力保证了Agent在生成内容时遵循自然语言的时序特性,避免了"作弊"现象。这使得Agent在推理、决策等任务中能够像人类一样逐步思考,提升输出的合理性和可解释性

两者结合的作用 自回归生成与掩码自注意力是相辅相成的:

  1. 训练阶段:掩码自注意力确保模型在学习时只能依赖历史信息,为自回归生成奠定基础
  2. 推理阶段:自回归生成过程利用训练好的模型,通过一次生成一个 token 的方式产生输出
  3. 质量优化:理解这一机制有助于通过调整生成策略(如束搜索、温度参数等)来控制Agent输出的多样性和准确性

在Agent开发中的重要性 输出质量优化:通过调整自回归生成的参数(如top-k、top-p采样),可以平衡Agent输出的创造性和准确性 推理能力提升:掩码自注意力机制使Agent能够更好地处理长上下文,提升复杂推理任务的表现 可控性增强:理解生成机制有助于实现对Agent输出的更好控制,满足特定应用场景的需求

预训练与微调

LLM 的训练分为两个阶段:

预训练(Pre-training)

  • 模型在海量无标注文本数据上进行训练
  • 学习目标:预测下一个词(自回归语言建模)或填空(掩码语言建模)
  • 目的:让模型学习语言规则、常识知识和世界模型

微调(Fine-tuning)

  • 预训练模型在特定任务的标注数据上进行进一步训练
  • 主要方法:
    • 监督微调(Supervised Fine-tuning, SFT):使用人工标注的指令-响应对
    • 奖励模型训练(Reward Model Training):训练模型评估输出质量
    • 强化学习微调(RLHF, Reinforcement Learning from Human Feedback):让模型输出更符合人类偏好

Agent 开发关联

  1. Agent 定制化开发

    • 可以通过微调将通用 LLM 定制为特定领域的 Agent
    • 例如:为金融领域开发 Agent 时,可以在金融语料上进行领域微调
  2. 指令遵循能力

    • 通过 SFT 训练,让 LLM 具备更好的指令理解和执行能力,这是 Agent 能「听懂」用户需求的基础
  3. 行为对齐

    • 通过 RLHF 确保 Agent 的行为符合人类价值观和安全规范
    • 避免 Agent 生成有害或偏离预期的内容
  4. 轻量级微调方案

    • 考虑到全参数微调的成本,Agent 开发中常用 LoRA、QLoRA 等参数高效微调方法
    • 降低硬件要求,加速开发迭代

SFT(Supervised Fine-Tuning) ,即 监督微调 ,是大语言模型(LLM)开发中的关键技术环节,用于将预训练模型转变为能够理解和执行人类指令的实用系统 RLHF(人类反馈强化学习) :进一步优化模型输出的对齐性和安全性

Prompt Engineering

核心概念

Prompt Engineering(提示工程)是指通过精心设计和优化输入提示,使 LLM 更准确地理解任务需求并生成高质量输出的技术。

关键技术

  • 指令提示(Instruction Prompting):清晰描述任务要求
  • 上下文提示(Context Prompting):提供相关背景信息
  • 示例提示(Example Prompting):提供任务示例
  • 思维链提示(Chain-of-Thought Prompting):引导模型分步思考
  • 角色提示(Role Prompting):为模型设定特定角色

Agent 开发关联

  1. Agent 能力激活

    • 通过 Prompt Engineering 可以激活 LLM 原本具备但未被充分利用的能力
    • 例如:使用思维链提示让 Agent 具备更强的推理能力
  2. 任务分解与执行

    • 设计结构化 Prompt 引导 Agent 将复杂任务分解为子任务
    • 例如:开发代码生成 Agent 时,通过 Prompt 引导模型先理解需求,再设计方案,最后编写代码
  3. 多工具协同

    • 通过 Prompt Engineering 实现 Agent 与外部工具的协同
    • 例如:设计 Prompt 让 Agent 在需要时自动调用搜索、计算器等工具
  4. 对话管理

    • 优化对话历史的组织方式,使 Agent 能更好地理解上下文

    • 例如:使用轮次标记、角色区分等方式结构化对话历史

Few-shot Learning

核心概念

Few-shot Learning(少样本学习)是指 LLM 仅通过少量示例(通常 1-5 个)就能快速学习新任务的能力。

相关概念

  • Zero-shot Learning:无需示例,直接理解并执行新任务
  • One-shot Learning:仅需 1 个示例
  • Few-shot Learning:需要 2-5 个示例
  • In-context Learning:通过上下文示例进行学习,不改变模型参数

Agent 开发关联

  1. 快速适配新场景

    • Agent 可以通过 Few-shot Learning 快速适应新的应用场景
    • 例如:给金融 Agent 提供几个医疗领域的问答示例,它就能初步处理医疗咨询
  2. 个性化定制

    • 通过提供用户偏好的示例,让 Agent 生成更符合用户需求的内容
    • 例如:提供用户喜欢的写作风格示例,让 Agent 生成符合该风格的内容
  3. 复杂任务处理

    • 对于复杂任务,通过提供步骤示例引导 Agent 完成
    • 例如:开发数据分析 Agent 时,提供数据处理流程的示例
  4. 跨领域迁移

    • 利用 LLM 的少样本学习能力,实现 Agent 在不同领域间的迁移
    • 降低针对每个领域单独开发 Agent 的成本

总结

现在是日常用AI做前端开发,前端岗位市面上已经几乎没有了,而且薪资也低的离谱了,现在积极转型学习AI Agent相关知识和应用

作为未来的用AI开发 Agent 的提示词开发者,理解 LLM 核心知识点的价值能让自己不止是一个调包仔或者提示词开发者吧,在某些特殊的实际场景下,肯定需要人具备设计,分析和决策的相关能力的

AI学习转型之路很长,也坎坷,一起加油

欢迎留言交流,如果觉得有帮助,可以点个赞支持一下

公众号:草帽lufei