CoT这个概念来源于学术界,是谷歌大脑的Jason Wei等人于2022年在论文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》中提出来的概念。它提出,如果生成一系列的中间推理步骤,就能够显著提高大型语言模型进行复杂推理的能力。
few-shot cot
同一个文字,我们上一文讲的fewshot,如果直接给出答案,那么模型会返回错误的答案,但是如果在样例里加入思考的过程,结题的步骤,那么模型就会得到一个正确的答案,在大部分的情况下。 其实这也是一种prompt技术。
zero-shot cot
也可以更直接一点,不需要任何提示样本,直接零样本提示,仅仅加入一句“请你一步一步思考”,大模型就可以很好地回答问题,这叫做纯思维链方法。