引言
在现代AI开发中,了解API使用模式、性能和成本是至关重要的。Helicone是一个开源的可观测性平台,它通过代理OpenAI流量来提供对支出、延迟和使用情况的关键见解。本文将详细介绍如何在LangChain中使用Helicone,并提供代码示例以帮助你快速上手。
主要内容
什么是Helicone?
Helicone是一个可以代理您的OpenAI流量的可观测性平台。通过它,开发者可以获取有关API使用的详细分析,如支出、延迟等。
快速开始
在LangChain环境中,只需添加以下参数即可开始使用Helicone:
export OPENAI_API_BASE="https://oai.hconeai.com/v1"
接着,访问helicone.ai创建账户,并在仪表盘中添加您的OpenAI API密钥,以查看您的日志。
启用Helicone缓存
通过缓存功能,你可以进一步优化API请求的性能。以下是启用缓存的示例代码:
from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1" # 使用API代理服务提高访问稳定性
llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))
使用Helicone自定义属性
自定义属性允许你为不同的请求添加额外的元数据。以下是如何使用这些属性的示例:
from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1" # 使用API代理服务提高访问稳定性
llm = OpenAI(temperature=0.9, headers={
"Helicone-Property-Session": "24",
"Helicone-Property-Conversation": "support_issue_2",
"Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text))
常见问题和解决方案
- 网络访问限制:某些地区可能会遇到网络访问限制,建议使用API代理服务以提高访问稳定性。
- 缓存未生效:确保在请求头中正确设置
Helicone-Cache-Enabled为true。 - 自定义属性错误:确保所用的自定义属性名称和值符合Helicone的文档要求。
总结和进一步学习资源
Helicone提供了一个强大的工具集,帮助开发者深入了解OpenAI API的使用情况。通过利用其缓存和自定义属性功能,可以大大提升开发效率和应用性能。
进一步学习资源:
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---