探索Helicone:LangChain生态系统中的开源观察平台

69 阅读2分钟

探索Helicone:LangChain生态系统中的开源观察平台

引言

在当今的人工智能开发中,了解API的使用情况和开销至关重要。Helicone作为一种开源的观察平台,能为您的OpenAI流量提供详尽分析,帮助您掌握使用情况、延迟和成本等关键指标。本文将介绍如何在LangChain环境中集成和使用Helicone,以及如何启用一些强大的功能如缓存和自定义属性。

主要内容

什么是Helicone?

Helicone是一个开源观察平台,它可以代理您的OpenAI流量,并提供关键的使用洞察和报告。通过Helicone,开发者可以更清晰地了解他们的API调用开销、延迟和使用情况,从而进行更有效的资源管理。

快速开始

要在LangChain环境下使用Helicone,只需设置以下环境变量:

export OPENAI_API_BASE="https://oai.hconeai.com/v1" # 使用API代理服务提高访问稳定性

随后,您需要访问helicone.ai创建一个账户,并在仪表盘中添加您的OpenAI API密钥以查看日志。

如何启用Helicone缓存

启用缓存可以极大地提高API响应效率。以下是如何在代码中启用Helicone缓存:

from langchain_openai import OpenAI
import openai

# 设置API基础URL
openai.api_base = "https://oai.hconeai.com/v1" # 使用API代理服务提高访问稳定性

# 创建OpenAI对象并启用缓存
llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text)) # 调用API并打印结果

如何使用Helicone自定义属性

Helicone还提供了自定义属性功能,使您可以在请求中附加自定义元数据。以下是一个示例:

from langchain_openai import OpenAI
import openai

# 设置API基础URL
openai.api_base = "https://oai.hconeai.com/v1" # 使用API代理服务提高访问稳定性

# 创建OpenAI对象并添加自定义属性
llm = OpenAI(temperature=0.9, headers={
    "Helicone-Property-Session": "24",
    "Helicone-Property-Conversation": "support_issue_2",
    "Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text)) # 调用API并打印结果

通过设置自定义属性,您可以更有效地管理和分析API请求。

常见问题和解决方案

  1. 无法访问API: 在某些地区,访问外部API可能会受限。建议使用API代理服务(例如Helicone),以提高访问的稳定性和可靠性。

  2. 缓存未生效: 确保在请求头中正确设置了Helicone-Cache-Enabledtrue

  3. 自定义属性未记录: 检查请求中是否正确包含自定义属性的头信息。

总结和进一步学习资源

结合使用Helicone和LangChain,您可以更好地管理您的AI模型请求,优化性能并分析使用情况。建议查看以下资源进一步了解:

参考资料

  1. Helicone 官方文档
  2. LangChain GitHub 仓库

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---