你可能已经听说过提示工程(Prompt Engineering),也可能没有
从本质上讲,它是“有效地与人工智能沟通以获得你想要的东西”。
大多数人在提示工程方面很差
然而,它正成为一项越来越重要的技能...... 因为垃圾输入=垃圾输出。
以下是提示👇所需的最重要的技术
我会将语言模型称为“LM”。
语言模型的例子是@OpenAI的ChatGPT
1. 角色/角色提示
为 AI 分配角色。
示例:
“您是 X 方面的专家。20年来,你帮助人们做Y。你的任务是给出关于X的最佳建议.请回复'明白了',如果你已经理解的话
一个强大的附加组件如下:
“在回答之前,你必须始终提出问题,这样你才能更好地理解提问者想要什么。”
我一会儿会谈谈为什么这如此重要。
2.CoT
CoT代表 “思想链”
这用于指示语言模型解释其推理过程。
示例:
参考文献1:标准提示与CoT链提示(Wei等人)
3. Zero-Shot-Cot
Zero-shot指的是在没有进行额外的训练的情况下,模型可以根据提示进行预测。
接下来我将讲解几个few-shot的例子。
请注意,通常情况下CoT > Zero-shot-CoT。
示例:
ref1: Zero-shot vs zero-shot-CoT (Kojima et al.)
4. Few-Shot
Few-Shot是指在提示中给LM一些示例,以便它更快地适应新示例。
示例:
ref2: Few-shot vs. few-shot-CoT (Kojima et al.)
5.Knowledge generation
通过对LM进行提示来生成与问题相关的知识。
这可以用于生成知识提示(详见后文)。。
示例:
ref3: Knowledge generation (Liu et al.)
6.Generated Knowledge
现在我们有了知识,我们可以将这些信息输入到新的提示中,并提出与知识相关的问题。
这样的问题称为“知识增强”问题。
7.Self-consistency
这种技术用于生成多个推理路径(思维链chain of Thoughts)。
多数答案被视为最终答案。
示例:
ref4: Self-consistency (anonymous authors)
8. LtM
LtM代表 “最少到最多”
该技术是CoT的后续技术。此外,它的工作原理是将问题分解为子问题,然后解决这些问题。
示例:
原文链接:
关注“云原生SRE”,获取更多ChatGPT有趣玩法