常被硅谷誉为“科技先知”的凯文·凯利(Kevin Kelly)在最新访谈提到:大模型能力很强,但它很“懒”,当你去问它们,它会给你最普通,最省力的答案,它有能力做出卓越回答,但你得不断引导、推动,逼它做出更好的回答,这本身也是一项技能。
说白了,懒的人 + 懒的模型,只能得到平庸的答案。
现在 AI 的卓越能力从不稀缺,稀缺的,是能把它逼出高水平答案的人 —— 也就是懂提示词工程的人。
这篇文章,我会从新手入门到高手实战,把提示词工程讲透,没有废话,全是能直接抄的干货,看完你再也不会只会写「帮我写个 XX」。
先上核心认知:为什么你的提示词没用?
你有没有过这种经历:
- 让 AI 写代码,结果跑起来全是 bug,改了 3 遍还是不对
- 让 AI 写产品文案,结果全是正确的废话,毫无亮点
- 让 AI 做数据分析,结果它自己瞎编数据,一本正经地胡说八道
你骂 AI 笨,其实是你给的指令太模糊了。
这就像你点外卖,只跟老板说「给我来份吃的」,老板只能给你上一份最不容易出错的蛋炒饭;但如果你说「来一份微辣的重庆小面,多放青菜,不要香菜,面煮硬一点」,老板才能给你上一份完全符合你预期的面。
提示词,就是你给 AI 下的「订单」。你的指令有多清晰,AI 的答案就有多精准。
新手救命篇:6 段式万能提示词模板(直接抄)
先给所有新手一个开箱即用的万能模板,我用了 2 年,覆盖 90% 的日常场景,不管是写代码、写文案、做分析,套进去就有用。
完整模板(直接填空用)
### 角色设定 ###
你是【专业身份】,具备【核心能力】,擅长【具体领域技能】,拥有【相关行业经验】。
### 背景与目标 ###
背景:【使用场景/受众/限制条件】
目标:【可量化的具体结果,如“生成3条150字以内的产品文案”“写一个Python排序函数”“完成1份用户增长分析”】
### 核心要求 ###
1. 【关键约束1,如“代码必须有完整注释,兼容Python3.8+”】
2. 【关键约束2,如“文案必须口语化,无专业术语,适合25-35岁职场人”】
3. 【关键约束3,如“所有数据必须标注来源,不得自行编造”】
以上3点必须严格遵守,以上3点必须严格遵守,以上3点必须严格遵守!
### 输出格式 ###
【指定格式,如“分点列出”“Markdown段落式”“JSON格式,包含xx字段”“Python代码块”】
### 错误兜底机制 ###
当我的输入缺少关键信息,或你无法完成需求时,必须先回复「请提供【具体缺失的信息】以继续」,不得自行假设条件、编造内容或生成不确定的回复。
### 反思自查 ###
生成内容后,请你先自行检查:
1. 是否完全满足核心要求,有没有违反约束
2. 是否达成了预设的目标,有没有偏离需求
3. 是否存在逻辑漏洞、事实错误或内容幻觉
确认无误后,再输出最终内容。
正反例对比,一眼看出差距
❌ 新手垃圾提示词:
帮我写个咖啡机的产品介绍
✅ 高手精准提示词(套模板):
### 角色设定 ###
你是一名资深电商产品文案,具备8年家电类目文案经验,擅长抓用户痛点,用生活化的语言突出产品核心卖点,写出能让用户下单的爆款文案。
### 背景与目标 ###
背景:我们要在抖音电商推广一款便携咖啡机,目标受众是25-35岁的通勤职场人,他们早上时间紧张,想在办公室喝到现磨咖啡,讨厌速溶的口感,也觉得咖啡店太贵。
目标:生成3条150字以内的抖音口播文案,突出产品「30秒快速出杯」「巴掌大小不占地」「不用插电」的核心卖点。
### 核心要求 ###
1. 文案必须口语化,像和朋友聊天一样,不能有官方套话
2. 必须戳中职场人早上赶时间、想喝咖啡的痛点
3. 每条文案必须有明确的行动指令,引导用户点击小黄车
以上3点必须严格遵守,以上3点必须严格遵守,以上3点必须严格遵守!
### 输出格式 ###
每条文案单独成段,标注序号,结尾标注文案的核心亮点。
### 错误兜底机制 ###
当我的输入缺少关键信息,或你无法完成需求时,必须先回复「请提供【具体缺失的信息】以继续」,不得自行假设条件、编造内容。
### 反思自查 ###
生成后请检查:是否符合字数要求、是否戳中痛点、有没有违反核心要求,确认无误后再输出。
不用我说,你也能看出来,后者出来的文案,绝对比前者好 10 倍。
基础进阶篇:4 个必学的基础技术,让提示词效果翻倍
模板是骨架,下面这 4 个技术,就是给模板添肉的核心技巧,学会了,你就能应对绝大多数场景。
1. 零 / 单 / 少样本提示:给 AI 打个样,它就不会瞎写
很多人不知道,大模型是「示例驱动」的,你给它看正确的例子,它比谁都学得快。
-
零样本提示:不给示例,只给任务,适合简单的翻译、摘要等基础任务
-
示例:
把下面这句话翻译成英文:提示词工程是和AI高效沟通的核心技能 -
单样本提示:给 1 个示例,适合格式特殊、风格明确的任务示例:
请把下面的句子改成小红书风格: 原句:这个粉底液很服帖,不卡粉 小红书版:救命!这个粉底液是什么磨皮神器啊!上脸巨服帖,带妆一天都不卡粉,黄皮姐妹直接冲! 原句:这个保温杯保温效果很好,小巧便携 小红书版: -
少样本提示:给 3-5 个示例,适合分类、数据抽取、复杂格式生成等任务,效果最好示例:
请把下面的用户评论,按情感分类为【正面】【中性】【负面】: 评论:这个键盘手感超好,打字声音很小,太适合办公室用了 分类:正面 评论:快递有点慢,东西还行,没什么惊喜 分类:中性 评论:用了3天就坏了,客服也不理人,避雷! 分类:负面 评论:颜值很高,但是续航太差了,一天要充3次电 分类:
划重点:示例的质量,比数量重要。1 个精准的示例,比 10 个模糊的示例有用。
2. 结构化输出:让 AI 的答案能直接用,不用二次修改
新手最容易犯的错:不指定输出格式,结果 AI 给你写了一大段流水账,你还要自己复制粘贴、整理格式,反而增加了工作量。
高手的做法:明确指定输出格式,甚至定义好字段,让 AI 的输出能直接对接你的系统、直接用。
最常用的 2 种格式:
- Markdown 格式:普通对话、文案、大纲、报告,用这个最方便,指定好标题、分点、表格等
- JSON 格式:数据抽取、代码调用、Agent 工具调用,用这个最稳妥,能有效防止幻觉,还能直接被程序解析
这里给大家一个可直接落地的工程化方案:用 Pydantic 强制校验结构化输出,彻底解决 AI 输出格式不稳定的问题。
from pydantic import BaseModel, EmailStr, Field, ValidationError
from typing import List, Optional
from datetime import date
# 1. 先定义数据模型,相当于给AI定好输出的“规矩”
class UserInfo(BaseModel):
name: str = Field(..., description="用户的真实全名")
email: EmailStr = Field(..., description="用户的合法邮箱地址")
age: Optional[int] = Field(None, description="用户年龄,必须大于0", ge=1)
tags: List[str] = Field(default_factory=list, description="用户的标签列表")
# 2. 把模型定义写进提示词,让AI严格按这个输出JSON
prompt = f"""
从下面的文本中提取用户信息,严格按照JSON格式输出,必须符合以下Pydantic模型定义:
{class UserInfo.__doc__}
字段说明:
{[f"{field.name}: {field.description}" for field in UserInfo.__fields__.values()]}
文本:
“我叫张三,邮箱是zhangsan@example.com,今年28岁,喜欢编程、跑步和看电影,是个后端开发工程师。”
输出要求:只输出JSON字符串,不要其他任何解释内容。
"""
# 3. 拿到AI的输出后,直接用Pydantic校验,格式不对直接报错,避免后续程序崩掉
llm_output_json = """
{
"name": "张三",
"email": "zhangsan@example.com",
"age": 28,
"tags": ["编程", "跑步", "看电影", "后端开发"]
}
"""
try:
user_data = UserInfo.model_validate_json(llm_output_json)
print("数据校验通过!")
print(f"用户名:{user_data.name},邮箱:{user_data.email}")
except ValidationError as e:
print(f"AI输出格式错误:{e}")
这个方法,是我在做 Agent 开发时必用的,能彻底解决 AI 输出格式乱的问题,让你的程序能稳定对接 AI 的输出。
3. 分隔符使用:让 AI 精准读懂你的指令,不会混淆内容
很多人写提示词,把指令、上下文、输入内容全堆在一起,AI 很容易搞混:到底哪些是指令,哪些是要处理的内容?
解决方法很简单:用分隔符,把不同的内容清晰分开。
常用的分隔符:
- 三重反引号 ```:用来包裹要处理的文本、代码,最常用
- XML 标签 ”:适合复杂的多模块提示词
- 分割线 ---:用来分隔不同的模块,比如模板里的不同章节
反例:
帮我总结下面的文章,重点讲用户增长的部分。文章内容:xxxxxx 还有,不要超过300字,用分点的方式。
正例:
### 指令 ###
帮我总结下面的文章,要求:
1. 重点突出用户增长的核心策略
2. 不超过300字
3. 用分点的方式输出
### 待处理文章 ###
xxxxxx(文章全文)
就这么一个简单的改动,AI 理解指令的准确率,能提升 80%。
4. 正面指令优先:别只说 “不要什么”,要说 “要什么”
新手常犯的第二个错:只会给负面约束,不说清楚自己到底要什么。
比如你写:不要写得太官方,AI 根本不知道 “不官方” 到底是什么,是口语化?还是年轻化?还是接地气?
正确的做法:把负面约束,转化为正面的、具体的指令。
表格
| 错误的负面指令 | 正确的正面指令 |
|---|---|
| 不要写得太官方 | 用职场人接地气的口语化表达,像和同事聊天一样 |
| 不要有 bug | 代码必须经过边界条件校验,有完整的异常处理,兼容 Python3.8+ |
| 不要编造数据 | 所有数据必须来自公开的行业报告,标注清楚数据来源和发布时间 |
记住:AI 更擅长 “做什么”,而不是 “不做什么”。正面指令越具体,AI 的输出越符合你的预期。
高手推理篇:让 AI 从 “人工智障” 变 “逻辑大神” 的核心技术
前面的基础技术,能解决 80% 的日常场景。但如果你要让 AI 做复杂的数学计算、逻辑推理、方案规划,就需要下面这些进阶技术,能让 AI 的推理能力直接上一个台阶。
1. 思维链(Chain of Thought, CoT):让 AI 一步一步想,就不会算错
大模型做数学题、逻辑题很容易错,不是它不会,而是它懒得想,直接给你一个最省力的答案。
思维链的核心,就是强制让 AI 把中间的推理步骤说出来,模拟人类思考的过程,一步一步推导,而不是直接给答案。
它有两种最常用的用法:
-
零样本 CoT:最简单,只需要在提示词结尾加一句「让我们一步一步来思考」,就能让很多复杂问题的准确率翻倍。示例:
一个商店卖苹果,5元1斤,买3斤送1斤。小明买了12斤苹果,最少要花多少钱?让我们一步一步来思考。 -
少样本 CoT:给 AI 几个带推理过程的示例,让它学习这种思考方式,适合更复杂的推理任务。示例:
Q:3个连续的整数,和是45,这三个数分别是多少? A:让我们一步一步思考: 1. 设第一个整数为x,那么第二个是x+1,第三个是x+2 2. 三个数的和是x + (x+1) + (x+2) = 3x + 3 = 45 3. 解方程:3x = 42,x=14 4. 所以三个数是14、15、16 最终答案:14、15、16 Q:一个长方形的周长是40厘米,长是宽的3倍,这个长方形的面积是多少? A:让我们一步一步思考:
我做过测试,同样的数学逻辑题,加了思维链之后,GPT-3.5 的准确率从 40% 提升到了 82%,效果极其明显。
2. 自洽性(Self-Consistency):让 AI 多算几遍,取最靠谱的答案
思维链能提升准确率,但还是有可能一次算错。自洽性,就是思维链的进阶版:让 AI 对同一个问题,生成多条不同的推理路径,然后取出现次数最多的答案,作为最终结果。
就像你做数学题,会多算几遍,确保答案是对的。AI 也一样,多算几次,就能把偶然的错误过滤掉。
举个例子:
- 问题:“所有的鸟都会飞,这个说法对吗?”
- 第一次推理:大多数鸟都会飞,所以这个说法是对的
- 第二次推理:企鹅、鸵鸟都是鸟,但它们不会飞,所以这个说法是错的
- 第三次推理:大部分鸟会飞,但有例外,所以这个说法不对
- 最终结果:2 次认为是错的,1 次认为是对的,取多数结果,最终答案是 “不对”
这个方法,特别适合数学计算、逻辑判断、常识问答等需要高准确率的场景,唯一的缺点就是会多消耗一些 Token,但是换来的准确率提升,绝对值得。
3. 思维树(Tree of Thoughts, ToT):让 AI 并行探索多个方案,找到最优解
思维链是线性的,一步一步往下推;而思维树,是让 AI 像树一样,从一个核心问题出发,并行生成多个思考分支,每个分支再往下探索,最后评估每个分支的可行性,找到最优解。
它特别适合需要创意、多方案评估、复杂规划的场景,比如写方案、设计剧情、做产品规划、解决复杂的工程问题。
举个示例提示词:
### 角色设定 ###
你是一名资深产品增长专家,擅长设计多维度的用户增长方案。
### 目标 ###
为一款职场人效率APP,设计3个完全不同的用户增长方案,每个方案要有完整的执行路径和预期效果。
### 要求 ###
1. 先从核心问题出发,生成3个完全不同的增长方向分支
2. 每个分支下,再拆解具体的执行子分支,形成完整的方案
3. 最后评估每个方案的可行性、成本和预期效果,选出最优方案
4. 用思维树的结构,清晰展示每个分支的内容
用这个方法,AI 再也不会给你一个平庸的、千篇一律的方案,而是能给你多个不同维度的思路,帮你找到最优解。
工程化实战篇:Agent 开发必备的提示词技术
如果你要做 AI Agent 开发,那下面这几个技术,是你必须掌握的,它们能让你的 Agent 从 “玩具” 变成 “能干活的工具”。
1. ReAct 框架:让 Agent 像人一样,边思考边行动
ReAct(Reason & Act,推理与行动),是现在 Agent 开发最主流的框架,它的核心是让 AI 模拟人类的思考过程:先思考要做什么,再执行对应的行动,拿到结果后再思考下一步,循环往复,直到完成任务。
举个最经典的示例:
### 角色设定 ###
你是一个能调用工具的AI助手,你可以使用以下工具:
1. search:网页搜索工具,参数是query(搜索关键词),用来获取实时的、最新的信息
2. get_weather:天气查询工具,参数是city(城市名),用来获取指定城市的实时天气
### 执行规则 ###
你必须严格按照「思考→行动→观察」的循环执行:
1. 思考:先想清楚当前要解决的问题,是否需要调用工具,调用哪个工具,参数是什么
2. 行动:严格按照格式输出工具调用,格式是:`工具名|参数`
3. 观察:我会给你返回工具执行的结果,你再根据结果进行下一步思考
只有当你确定已经获取了所有需要的信息,能完整回答用户的问题时,才能输出最终答案。
### 用户需求 ###
北京今天的天气怎么样?适合穿什么衣服?
AI 的执行过程:
思考:用户需要知道北京今天的天气和穿衣建议,首先需要调用get_weather工具,获取北京的实时天气数据。
行动:get_weather|北京
观察:北京今日天气:晴,气温8-18℃,西北风3级,空气质量优。
思考:已经获取了天气数据,现在需要根据气温给出穿衣建议,不需要再调用工具,可以输出最终答案了。
最终答案:北京今天晴,气温8-18℃,西北风3级,空气质量优。建议穿薄外套+长袖内搭,早晚温差大,注意保暖。
这个框架,是所有能调用工具、能和外部系统交互的 Agent 的核心,掌握了它,你就能做出真正能落地的 AI 应用。
2. 检索增强生成(RAG):让 AI 不说谎,只说真话
AI 最大的问题,就是 “幻觉”—— 一本正经地编造事实、数据、内容。RAG(检索增强生成),就是解决这个问题的核心方案。
它的逻辑很简单:用户提问后,先从你的私有知识库、文档库中,检索到和问题相关的真实内容,然后把这些内容作为上下文,和问题一起喂给 AI,让 AI 只能基于检索到的真实内容回答问题,不能自己瞎编。
提示词示例:
### 角色设定 ###
你是一个专业的文档问答助手,只能基于下面提供的参考文档内容回答问题,不得编造任何文档里没有的信息。
### 参考文档 ###
[这里放检索到的文档内容]
### 回答规则 ###
1. 所有答案必须严格来自参考文档,不得添加任何文档外的信息
2. 如果参考文档里没有相关内容,必须回复「参考文档中没有相关信息,无法回答」,不得自行编造
3. 回答要简洁准确,引用文档中的原文内容,不要过度解读
用了 RAG 之后,AI 的幻觉问题能减少 90% 以上,这也是现在企业级 AI 应用的标配技术。
3. 提示词 A/B 测试:找到最优的提示词
提示词工程不是一劳永逸的,同一个需求,不同的提示词写法,效果天差地别。所以,A/B 测试是必须的。
怎么做?很简单:
- 针对同一个需求,设计 2 个不同版本的提示词,A 版和 B 版,只改变一个变量(比如有没有加角色、有没有加示例、有没有用思维链)
- 用相同的 10-20 个测试用例,分别测试两个版本的提示词
- 设定好评估指标(比如准确率、格式符合率、用户满意度),对比两个版本的效果
- 保留效果好的版本,继续优化,迭代下去
举个例子:
- A 版提示词:
帮我写产品介绍 - B 版提示词:
你是资深电商文案,帮我写一个面向25-35岁职场人的便携咖啡机产品介绍,突出30秒快速出杯、小巧便携的卖点,150字以内 - 测试结果:B 版的用户点击率、转化率,比 A 版高 300%
只有通过 A/B 测试,你才能找到真正适合你的场景、效果最好的提示词,而不是靠感觉写。
避坑指南:新手最容易犯的 7 个错误
- 指令模糊,只说 “帮我写个 XX”,不说清楚具体要求:这是最核心的错误,你的指令有多模糊,AI 的答案就有多敷衍。
- 只给负面约束,不给正面指令:AI 不知道 “不要什么” 的反面是什么,一定要把负面约束转化为具体的正面要求。
- 不指定输出格式:结果 AI 给的内容没法直接用,还要二次整理,反而增加工作量。
- 上下文太多,不做分隔:AI 分不清哪些是指令,哪些是要处理的内容,很容易理解错需求。
- 过度依赖零样本,不给示例:示例是最好的引导,一个好的示例,比 10 句解释都有用。
- 不做错误兜底:遇到 AI 处理不了的情况,它就会瞎编,一定要加错误兜底机制,让它问你要信息,而不是自己假设。
- 觉得一次就能写好,不做迭代:提示词工程是迭代出来的,再好的模板,也要根据输出结果不断优化,才能达到最好的效果。
最后想说的话
很多人说,现在大模型越来越聪明,提示词工程很快就会被淘汰。
我完全不认同。
恰恰相反,未来大模型的能力越强,提示词工程就越重要。因为大模型的能力上限越来越高,能做到的事情越来越多,而能不能把它的能力榨出来,完全取决于你能不能给它清晰、精准、有效的指令。
就像同样是一把手术刀,在普通人手里,就是一块废铁;在外科医生手里,就能救死扶伤。提示词工程,就是你用好 AI 这把 “手术刀” 的核心技能。
未来,人和人之间的差距,很大程度上,就是使用 AI 的效率差距。而提示词工程,就是拉开这个差距的第一步。
关注我,带你把 AI 的能力,彻底榨干。