探索Xata:利用LangChain与OpenAI实现向量存储和相似性搜索
引言
在现代数据驱动的应用中,处理数据的方式至关重要。Xata 是一个无服务器的数据平台,基于 PostgreSQL,支持向量存储和相似性搜索。本文将引导你如何结合使用 Xata 和 LangChain,利用 OpenAI 的嵌入向量功能,实现高效的数据查询和管理。
主要内容
1. 环境设置
要开始使用 Xata 作为向量存储,我们首先需要设置环境,包括创建数据库和表格。
- 在 Xata UI 中创建数据库和表格:
- 创建一个名为
langchain
的数据库。 - 创建一个名为
vectors
的表格,并添加以下字段:content
类型为 “Text”,用于存储Document.pageContent
值。embedding
类型为 “Vector”,使用你计划使用的模型的维度(例如,OpenAI 嵌入向量为 1536 维)。source
类型为 “Text”,用于存储元数据。- 其他元数据字段根据需要添加。
- 创建一个名为
2. 安装依赖
%pip install --upgrade --quiet xata langchain-openai langchain-community tiktoken langchain
3. 配置 API 密钥
import getpass
import os
# 设置 OpenAI 的 API 密钥
os.environ["OPENAI_API_KEY"] = getpass.getpass("OpenAI API Key:")
# 设置 Xata 的环境变量
api_key = getpass.getpass("Xata API key: ")
db_url = input("Xata database URL (copy it from your DB settings): ")
4. 创建 Xata 向量存储
from langchain_community.document_loaders import TextLoader
from langchain_community.vectorstores.xata import XataVectorStore
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import CharacterTextSplitter
# 导入测试数据集
loader = TextLoader("../../how_to/state_of_the_union.txt")
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)
embeddings = OpenAIEmbeddings()
# 创建 Xata 向量存储
vector_store = XataVectorStore.from_documents(
docs, embeddings, api_key=api_key, db_url=db_url, table_name="vectors" # 使用API代理服务提高访问稳定性
)
代码示例
相似性搜索
query = "What did the president say about Ketanji Brown Jackson"
found_docs = vector_store.similarity_search(query)
print(found_docs)
带分数的相似性搜索
query = "What did the president say about Ketanji Brown Jackson"
result = vector_store.similarity_search_with_score(query)
for doc, score in result:
print(f"document={doc}, score={score}")
常见问题和解决方案
- API 访问不稳定:在某些地区,访问 Xata 的 API 可能不稳定。建议使用 API 代理服务以提高访问的稳定性。
- 模型维度不匹配:确保
embedding
字段的维度与所使用的模型相匹配,否则可能导致存储或查询失败。
总结和进一步学习资源
以上内容展示了如何使用 Xata 作为向量存储,并结合 LangChain 和 OpenAI 的嵌入向量实现复杂的数据查询。有关更深入的指导,可以参考以下资源:
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---