提示模板与语言模型 | 豆包MarsCode AI刷题

88 阅读3分钟

提示模板

语言模型是个无穷无尽的宝藏,人类的知识和智慧,好像都封装在了这个“魔盒”里面了。但是,怎样才能解锁其中的奥秘,那可就是仁者见仁智者见智了。所以,现在“提示工程”这个词特别流行,所谓Prompt Engineering,就是专门研究对大语言模型的提示构建。

使用大模型的场景千差万别,因此肯定不存在那么一两个神奇的模板,能够骗过所有模型,让它总能给你最想要的回答。然而,好的提示(其实也就是好的问题或指示啦),肯定能够让你在调用语言模型的时候事半功倍。

那其中的具体原则,不外乎吴恩达老师在他的中所说的:

  1. 给予模型清晰明确的指示
  2. 让模型慢慢地思考

语言模型

LangChain中支持的模型有三大类。

  1. 大语言模型(LLM) ,也叫Text Model,这些模型将文本字符串作为输入,并返回文本字符串作为输出。Open AI的text-davinci-003、Facebook的LLaMA、ANTHROPIC的Claude,都是典型的LLM。
  2. 聊天模型(Chat Model),主要代表Open AI的ChatGPT系列模型。这些模型通常由语言模型支持,但它们的 API 更加结构化。具体来说,这些模型将聊天消息列表作为输入,并返回聊天消息。
  3. 文本嵌入模型(Embedding Model),这些模型将文本作为输入并返回浮点数列表,也就是Embedding。而文本嵌入模型如OpenAI的text-embedding-ada-002,我们之前已经见过了。

真是一分钱一分货,当我使用较早期的开源模型T5,得到了很粗糙的文案 “i love you”(哦,还要注意T5还没有支持中文的能力,我把提示文字换成英文句子,结构其实都没变)。

当然,这里我想要向你传递的信息是:你可以重用模板,重用程序结构,通过LangChain框架调用任何模型。如果你熟悉机器学习的训练流程的话,这LangChain是不是让你联想到PyTorch和TensorFlow这样的框架——模型可以自由选择、自主训练,而调用模型的框架往往是有章法、而且可复用的

输出解析

LangChain提供的解析模型输出的功能,使你能够更容易地从模型输出中获取结构化的信息,这将大大加快基于语言模型进行应用开发的效率。

为什么这么说呢?请你思考一下刚才的例子,你只是让模型生成了一个文案。这段文字是一段字符串,正是你所需要的。但是,在开发具体应用的过程中,很明显我们不仅仅需要文字,更多情况下我们需要的是程序能够直接处理的、结构化的数据