利用Helicone提升LangChain中OpenAI API的可观察性和性能

76 阅读2分钟

利用Helicone提升LangChain中OpenAI API的可观察性和性能

引言

在使用OpenAI的过程中,了解API的使用情况、开销和延迟对于优化和调试至关重要。Helicone是一款开源的可观察性平台,通过代理你的OpenAI流量,提供关键的使用洞察。本文将介绍如何在LangChain环境中集成Helicone,开启缓存功能并使用自定义属性。

主要内容

快速开始

要在LangChain环境中快速上手Helicone,只需设置以下参数:

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

接下来,访问Helicone官网创建你的账户,并在控制面板中添加你的OpenAI API密钥以查看日志。

如何开启Helicone缓存

Helicone的缓存功能可以大幅提升API请求的响应速度。以下是一个实现示例:

from langchain_openai import OpenAI
import openai

# 使用API代理服务提高访问稳定性
openai.api_base = "https://oai.hconeai.com/v1"

# 实例化OpenAI对象并开启缓存
llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))

如何使用Helicone自定义属性

自定义属性可以帮助你更好地分类和追踪API调用。以下是一个示例:

from langchain_openai import OpenAI
import openai

# 使用API代理服务提高访问稳定性
openai.api_base = "https://oai.hconeai.com/v1"

# 实例化OpenAI对象并添加自定义属性
llm = OpenAI(temperature=0.9, headers={
        "Helicone-Property-Session": "24",
        "Helicone-Property-Conversation": "support_issue_2",
        "Helicone-Property-App": "mobile",
      })
text = "What is a helicone?"
print(llm.invoke(text))

常见问题和解决方案

网络访问问题

由于某些地区的网络限制,开发者可能需要使用API代理服务以提高访问稳定性。例如,使用 openai.api_base = "https://oai.hconeai.com/v1"

缓存未命中

确保在请求头中正确设置了 "Helicone-Cache-Enabled": "true"

自定义属性未生效

检查请求头中的自定义属性键值对是否正确拼写和设置。

总结和进一步学习资源

通过集成Helicone,可以显著提升对OpenAI API使用情况的可观察性,并通过缓存优化性能。未来可以进一步探索Helicone的高级功能,如定制化报表和告警设置。

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---