咒语的艺术:大模型 Prompt Engineering (提示词工程) 的三大高阶技巧

0 阅读3分钟

很多刚接触大模型(LLM)的开发者都会抱怨:“其实 AI 并没有那么神,它经常胡说八道或者答非所问啊。” 但大多数时候,并不是模型不行,而是我们的**“施法口诀(Prompt)”**没念对。

对于研发人员来说,我们不能再用“请帮我写篇小红书爆款短文”这种口语化的方式去和 API 交互了。我们需要更加工程化、结构化的方法来榨取大模型的最大潜力。这就是 Prompt Engineering(提示词工程)

今天分享三种能在工程项目中立竿见影的提示词技巧。

1. 结构化提示词 (Structured Prompt)

传统的 Prompt 是一大段揉在一起的文字,这就像丢给员工一份杂乱无章的备忘录。而结构化提示词就是通过 Markdown 标签或者明确的分组,把上下文、要求、输出格式区分开来。

示例模板:

# 角色
你是一个资深的 Python 后端工程师。

# 任务
帮我审查以下代码,找出潜在的内存泄漏风险。

# 约束
1. 语言必须严厉。
2. 必须且仅输出 JSON 格式。包含 {"bugs": [...]}

# 上下文/代码
[输入代码]

2. Few-shot 小样本学习

大语言模型有一个极强的隐式学习能力——“照猫画虎”。如果你难以用语言去描述复杂的格式或者逻辑,最好的办法就是给它几个例子

Bad Case (Zero-shot)

判断这句话的情感是正向还是负向:这家店真的非常一般。

Good Case (Few-shot)

文本: 菜很难吃 情感: 负向 文本: 感觉物超所值 情感: 正向 文本: 这家店真的非常一般 情感:

在上面的例子中,我们虽然什么原理都没解释,但 AI 看完两个例子后,就能百分百严格按照你设计的格式输出结果。

3. 思维链 (CoT, Chain of Thought)

这是过去一年里让所有研究人员为之疯狂的一个技巧。核心原理就是:大语言模型是由左向右逐字生成的,它无法在脑子里打完草稿再输出。这意味着如果你问一个数学难题,要求它直接出答案,它必错无疑。

但只要你在 Prompt 里巧妙地加上一句:“请一步一步地思考(Let's think step by step)”。 模型就会在生成最终答案前,把推导过程也通过文字吐出来。这种一边说一边思考的方式,巧妙地利用了它自己的输出作为“草稿纸”,将复杂逻辑准确率提升了惊人的幅度。最新的深度推理模型 (比如 DeepSeek-R1 或者 OpenAI o1) 则是在模型的底层将其自动化并发扬光大了!


本文是个人学习大模型时的实战小记,希望对准备入门 AI 开发的大家有所启发。

感谢关注,我会持续更新,欢迎查看完整代码与学习记录:
github.com/start007-sm…