关于ChatGPT,8个你需要知道的Prompting技巧

481 阅读2分钟

图片

你可能已经听说过提示工程(Prompt Engineering),也可能没有

 

从本质上讲,它是“有效地与人工智能沟通以获得你想要的东西”。

大多数人在提示工程方面很差

然而,它正成为一项越来越重要的技能...... 因为垃圾输入=垃圾输出。

以下是提示👇所需的最重要的技术

我会将语言模型称为“LM”。

语言模型的例子是@OpenAI的ChatGPT

1. 角色/角色提示

为 AI 分配角色。

示例:

“您是 X 方面的专家。20年来,你帮助人们做Y。你的任务是给出关于X的最佳建议.请回复'明白了',如果你已经理解的话

一个强大的附加组件如下:

“在回答之前,你必须始终提出问题,这样你才能更好地理解提问者想要什么。”

我一会儿会谈谈为什么这如此重要。

2.CoT

CoT代表 “思想链”

这用于指示语言模型解释其推理过程。

示例:

图片

参考文献1:标准提示与CoT链提示(Wei等人)

3. Zero-Shot-Cot

Zero-shot指的是在没有进行额外的训练的情况下,模型可以根据提示进行预测。

接下来我将讲解几个few-shot的例子。

请注意,通常情况下CoT > Zero-shot-CoT。

示例:

图片

ref1: Zero-shot vs zero-shot-CoT (Kojima et al.)

4. Few-Shot

Few-Shot是指在提示中给LM一些示例,以便它更快地适应新示例。

示例:

图片

ref2: Few-shot vs. few-shot-CoT (Kojima et al.)

5.Knowledge generation

通过对LM进行提示来生成与问题相关的知识。

这可以用于生成知识提示(详见后文)。。

示例:

图片

ref3: Knowledge generation (Liu et al.)

6.Generated Knowledge

现在我们有了知识,我们可以将这些信息输入到新的提示中,并提出与知识相关的问题。

这样的问题称为“知识增强”问题。

7.Self-consistency

这种技术用于生成多个推理路径(思维链chain of Thoughts)。

多数答案被视为最终答案。

示例:

图片

ref4: Self-consistency (anonymous authors)

8. LtM

LtM代表 “最少到最多”

该技术是CoT的后续技术。此外,它的工作原理是将问题分解为子问题,然后解决这些问题。

示例:

图片

原文链接:

medium.com/@ramaswamis…

关注“云原生SRE”,获取更多ChatGPT有趣玩法