1 LLM 大语言模型基础
1.1 什么是 LLM
LLM(Large Language Model)大语言模型,是通过海量文本数据训练、能够理解人类语言并逐词生成文本的 AI 模型,是当前 AI 产品的核心底层引擎。
1.2 LLM 生成文本的完整过程
- 用户输入 Prompt
- 文本 Token 化(模型最小语言单位)
- 载入上下文窗口
- 模型推理:预测下一个词的概率
- 温度 / TopP 控制生成随机性
- 输出一个词,并加入上下文
- 循环生成,直到出现结束标记
- 返回完整回答
1.3 关键参数理解
-
温度(Temperature) :0~1,越低越精准固定,越高越创意发散
- 运维 / 技术场景:0.1~0.3
- 文案 / 创意场景:0.7~0.9
-
TopP:与温度作用类似,控制候选词范围,日常优先调温度即可
-
上下文窗口:模型能记住的前文长度,超出会遗忘
-
AI 幻觉:模型编造不存在的信息,是产品设计重点规避问题
1.4 LLM 与 AI 产品的关系
- LLM = 核心发动机
- AI 产品 = 基于 LLM 做的完整应用
- 产品工作:控制输入、约束输出、接入业务系统、降低幻觉
2 Prompt 提示词工程
2.1 什么是 Prompt
Prompt 是用户发给 LLM 的指令 + 上下文 + 约束,是控制模型输出的核心方式。可以理解为:人与大模型的交互语言。
2.2 高质量 Prompt 万能结构(必背)
- 角色(Role) :指定 AI 身份
- 指令(Instruction) :明确任务
- 上下文 / 约束(Context) :背景、限制、禁止行为
- 输出格式(Format) :列表 / JSON / 分点 / 字数
plaintext
【角色】
【任务】
【上下文与约束】
【输出格式】
2.3 三大基础技巧
- Zero-Shot 零样本无示例,直接指令,适合简单任务
- Few-Shot 少样本给出 1~5 个示例,让模型模仿格式
- Role-Play 角色扮演设定专业身份,输出更稳定专业
2.4 Prompt 设计六大原则
- 具体清晰,拒绝模糊
- 一次一个任务
- 信息完整,减少模型猜测
- 强制输出格式
- 复杂任务拆步骤
- 不断迭代优化
2.5 常见错误
- 过于简短、指令模糊
- 多任务混杂
- 无格式要求
- 无角色与约束
- 未禁止幻觉行为
2.6 实战示例(运维场景)
plaintext
【角色】资深云平台运维工程师
【任务】解释服务器502错误并给出排查步骤
【约束】面向新手,禁止编造命令,不确定则说明
【输出】分3步,每步≤20字,简洁可执行
3 总结
- LLM 是 AI 产品的核心,本质是逐词预测生成文本
- 温度 / TopP 控制风格,上下文窗口决定记忆长度,幻觉是核心风险
- Prompt 是控制 LLM 的关键,遵循 “角色 + 指令 + 上下文 + 格式” 结构
- 好的 Prompt 直接决定 AI 产品的可用性与准确性
我再帮你把封面 / 首图用的 Mermaid 流程图也一起做好,你直接生成图片贴在文章最前面就行:
预览
查看代码
LLM 大语言模型
文本生成:逐词预测
温度/TopP 控制风格
上下文窗口
AI幻觉风险
Prompt 提示词
角色+指令+上下文+格式
零样本/少样本/角色扮演
输出规范可控
flowchart TD
A[LLM 大语言模型] --> B[文本生成:逐词预测]
B --> C[温度/TopP 控制风格]
B --> D[上下文窗口]
B --> E[AI幻觉风险]
F[Prompt 提示词] --> G[角色+指令+上下文+格式]
G --> H[零样本/少样本/角色扮演]
G --> I[输出规范可控]
A --> F
F --> A
LLM 大语言模型
文本生成:逐词预测
温度/TopP 控制风格
上下文窗口
AI幻觉风险
Prompt 提示词
角色+指令+上下文+格式
零样本/少样本/角色扮演
输出规范可控