Longchain训练营总结笔记 ②

136 阅读5分钟

模型I/O

可以把对模型的使用过程拆解成三块,分别是输入提示(对应图中的Format)、调用模型(对应图中的Predict)和输出解析(对应图中的Parse)。三块为一个整体,在这我们称为 Model I/O。

Prompt

所谓“模板”就是一段描述某种鲜花的文本格式,它是一个 f-string,其中有两个变量 {flower_name} 和 {price} 表示花的名称和价格,这两个值是模板里面的占位符,在实际使用模板生成提示时会被具体的值替换。

语言模型

LangChain中支持的模型有三大类。

  1. 大语言模型(LLM) ,也叫Text Model,这些模型将文本字符串作为输入,并返回文本字符串作为输出。Open AI的text-davinci-003、Facebook的LLaMA、ANTHROPIC的Claude,都是典型的LLM。
  2. 聊天模型(Chat Model),主要代表Open AI的ChatGPT系列模型。这些模型通常由语言模型支持,但它们的 API 更加结构化。具体来说,这些模型将聊天消息列表作为输入,并返回聊天消息。
  3. 文本嵌入模型(Embedding Model),这些模型将文本作为输入并返回浮点数列表,也就是Embedding。而文本嵌入模型如OpenAI的text-embedding-ada-002,我们之前已经见过了。文本嵌入模型负责把文档存入向量数据库,和我们这里探讨的提示工程关系不大。

LangChain的优势所在。我们只需要定义一次模板,就可以用它来生成各种不同的提示。 并且使用LangChain提示模板,我们还可以很方便地把程序切换到不同的模型,而不需要修改任何提示相关的代码。

因此,使用LangChain和提示模板的好处是:

  1. 代码的可读性:使用模板的话,提示文本更易于阅读和理解,特别是对于复杂的提示或多变量的情况。
  2. 可复用性:模板可以在多个地方被复用,让你的代码更简洁,不需要在每个需要生成提示的地方重新构造提示字符串。
  3. 维护:如果你在后续需要修改提示,使用模板的话,只需要修改模板就可以了,而不需要在代码中查找所有使用到该提示的地方进行修改。
  4. 变量处理:如果你的提示中涉及到多个变量,模板可以自动处理变量的插入,不需要手动拼接字符串。
  5. 参数化:模板可以根据不同的参数生成不同的提示,这对于个性化生成文本非常有用。

输出解析

# 导入结构化输出解析器和ResponseSchema 
from langchain.output_parsers import StructuredOutputParser, ResponseSchema 
# 定义我们想要接收的响应模式 
response_schemas = [ 
ResponseSchema(name="description", description="鲜花的描述文案"), 
ResponseSchema(name="reason", description="问什么要这样写这个文案") 
] 
# 创建输出解析器 
output_parser = StructuredOutputParser.from_response_schemas(response_schemas) 
# 获取格式指示 
format_instructions = output_parser.get_format_instructions() 
# 根据原始模板创建提示,同时在提示中加入输出解析器的说明 
prompt = PromptTemplate.from_template(prompt_template, 
    partial_variables={"format_instructions": format_instructions}) 
# 数据准备 
flowers = ["玫瑰", "百合", "康乃馨"] prices = ["50", "30", "20"] 
# 创建一个空的DataFrame用于存储结果 
import pandas as pd df = pd.DataFrame(columns=["flower", "price", "description", "reason"]) 
# 先声明列名 
for flower, price in zip(flowers, prices): 
# 根据提示准备模型的输入 
input = prompt.format(flower_name=flower, price=price) 
# 获取模型的输出 
output = model.invoke(input) 
# 解析模型的输出(这是一个字典结构) 
parsed_output = output_parser.parse(output) 
# 在解析后的输出中添加“flower”和“price” 
parsed_output['flower'] = flower parsed_output['price'] = price 
# 将解析后的输出添加到DataFrame中 
df.loc[len(df)] = parsed_output 
# 打印字典 
print(df.to_dict(orient='records')) 
# 保存DataFrame到CSV文件 
df.to_csv("flowers_with_descriptions.csv", index=False)

提示工程

两个大的原则:第一条原则是写出清晰而具体的指示,第二条原则是给模型思考的时间。

提示的结构:

  • 指令(Instuction) 一个常见用例是告诉模型“你是一个有用的XX助手”,这会让他更认真地对待自己的角色。
  • 上下文(Context)一个常见的用例是把从向量数据库查询到的知识作为上下文传递给模型。
  • 提示输入(Prompt Input)这个部分和“指令”部分其实也可以合二为一。但是拆分出来成为一个独立的组件,就更加结构化,便于复用模板。就是上面提到的设置Prompt模板。
  • 输出指示器(Output Indicator)标记​​要生成的文本的开始。这就像我们小时候的数学考卷,先写一个“解”。经常性的会用一个“Thought:”(思考)作为引导词,指示模型开始输出自己的推理(Reasoning)。

LangChain 提示模板的类型

image.png

PromptTemplate就是TextModel ChatPromptTemplate就是ChatModel

Few-Shot(少样本)、One-Shot(单样本)和与之对应的 Zero-Shot(零样本)的概念都起源于机器学习。 FewshotPromptTemplate就是在设置模板时加入一些示例

示例选择器example_selector会根据语义的相似度(余弦相似度)找到最相似的示例,并用这个示例构建了FewShot模板。这样,我们就避免了把过多的无关模板传递给大模型,以节省Token的用量。

Chain of Thought (CoT)

image.png

image.png

Tree of Thought (ToT)

ToT是一种解决复杂问题的框架,它在需要多步骤推理的任务中,引导语言模型搜索一棵由连贯的语言序列(解决问题的中间步骤)组成的思维树,而不是简单地生成一个答案。ToT框架的核心思想是:让模型生成和评估其思维的能力,并将其与搜索算法(如广度优先搜索和深度优先搜索)结合起来,进行系统性地探索和验证。

image.png