探索Helicone:提升OpenAI流量可观测性的利器

93 阅读2分钟

引言

在现代AI开发中,了解API使用模式、性能和成本是至关重要的。Helicone是一个开源的可观测性平台,它通过代理OpenAI流量来提供对支出、延迟和使用情况的关键见解。本文将详细介绍如何在LangChain中使用Helicone,并提供代码示例以帮助你快速上手。

主要内容

什么是Helicone?

Helicone是一个可以代理您的OpenAI流量的可观测性平台。通过它,开发者可以获取有关API使用的详细分析,如支出、延迟等。

快速开始

在LangChain环境中,只需添加以下参数即可开始使用Helicone:

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

接着,访问helicone.ai创建账户,并在仪表盘中添加您的OpenAI API密钥,以查看您的日志。

启用Helicone缓存

通过缓存功能,你可以进一步优化API请求的性能。以下是启用缓存的示例代码:

from langchain_openai import OpenAI
import openai

openai.api_base = "https://oai.hconeai.com/v1"  # 使用API代理服务提高访问稳定性

llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))

使用Helicone自定义属性

自定义属性允许你为不同的请求添加额外的元数据。以下是如何使用这些属性的示例:

from langchain_openai import OpenAI
import openai

openai.api_base = "https://oai.hconeai.com/v1"  # 使用API代理服务提高访问稳定性

llm = OpenAI(temperature=0.9, headers={
        "Helicone-Property-Session": "24",
        "Helicone-Property-Conversation": "support_issue_2",
        "Helicone-Property-App": "mobile",
      })
text = "What is a helicone?"
print(llm.invoke(text))

常见问题和解决方案

  • 网络访问限制:某些地区可能会遇到网络访问限制,建议使用API代理服务以提高访问稳定性。
  • 缓存未生效:确保在请求头中正确设置Helicone-Cache-Enabledtrue
  • 自定义属性错误:确保所用的自定义属性名称和值符合Helicone的文档要求。

总结和进一步学习资源

Helicone提供了一个强大的工具集,帮助开发者深入了解OpenAI API的使用情况。通过利用其缓存和自定义属性功能,可以大大提升开发效率和应用性能。

进一步学习资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---