LangSmith使用手册

63 阅读4分钟

LangSmith使用手册

注册

https://smith.langchain.com/

进来之后呢,我是直接使用的github登陆的

image.png

然后根据提示不断的选择即可,因为是英文的,不知道怎么选的,可以截图问一下豆包,其实就是根据你的代码水平等给你推荐不同的使用建议,然后我们就到了主页面

image.png

核心功能区

  • Tracing:追踪应用的调用链路,用于调试问题。
  • Monitoring:监控应用的运行指标,如延迟、错误率。
  • Datasets & Experiments:管理测试数据集,运行对比实验。
  • Prompts:集中管理和版本控制你的提示词。
  • Playground:快速测试不同提示词和模型效果的沙箱环境。
  • Studio:可视化构建复杂的 AI 应用流程。
  • Deployments:将应用部署到生产环境。

快捷启动卡片

  • Get started with Tracing:通过一个预置的 ReAct 代理来快速上手链路追踪功能。
  • Debug and iterate in Studio:在 Studio 中可视化你的应用图结构,并进行实时测试与迭代。
  • Try out the Playground:在 Playground 中测试不同的提示词和模型,快速验证效果。

Observability(可观测性)面板

这是平台的监控核心区域,展示了你的追踪项目运行状态:

  • 核心指标

    • Most Recent Run:最近一次项目运行时间
    • Trace Count:7 天内的调用追踪次数
    • Error Rate:错误率(当前为 0%)
    • P50/P99 Latency:响应延迟(代表 50% 和 99% 请求的耗时,当前均为 7.31 秒)
  • 这个面板让你可以随时掌握应用的健康状况,及时发现性能瓶颈或异常。

去获取Api Key

首先,点击一下setting

image.png

然后,我们描述一下这个token的适用场景,由于我们现在只是尝试使用,就暂时先选第一个Personal即可

  • Personal Access Token:个人访问令牌,作为个人用户身份验证 API 的凭证,适合本地开发、个人调试等场景。
  • Default Workspace:设置该 API Key 默认关联的工作区,当请求中未指定工作区时,系统会使用这里的默认值。

image.png

接下来,一定要保存好自己的token,只有在这个时候,你的token才是完整的

image.png

项目配置

配置文件(适合团队协作)

创建 .env 文件(放在项目根目录),用 python-dotenv 加载:

1. 安装依赖:

pip install python-dotenv

2. 创建 .env 文件:

LANGCHAIN_API_KEY=你的_api_key_here
LANGCHAIN_TRACING_V2=true
LANGCHAIN_PROJECT=测试项目-智能客服

LANGCHAIN_TRACING_V2=true:开启新一代追踪功能

这是控制 LangSmith 追踪是否生效的核心开关,具体作用:

  • 启用 LangChain 生态(LangChain/LangGraph)与 LangSmith 的深度集成,让所有 LLM 调用、工具调用、智能体执行流程都被自动记录并上传到 LangSmith 平台。
  • “V2” 代表这是第二代追踪系统,相比第一代(LANGCHAIN_TRACING),它支持更细粒度的追踪(比如 LangGraph 的节点状态、多智能体协作流程)、更丰富的元数据记录(Token 消耗、执行时间),也是目前官方推荐的配置。
  • 如果设为 false 或不配置,所有执行流程都不会被追踪,LangSmith 控制台看不到任何记录。

LANGCHAIN_PROJECT=团队项目-用户问答:给追踪数据分类

这是用于归类 Trace 数据的 “文件夹” 标签,具体作用:

  • LangSmith 控制台会按 PROJECT 名称分组展示所有追踪记录,比如你可以给 “用户问答场景” 设一个项目名,给 “文档总结场景” 设另一个,方便在控制台快速筛选、管理不同业务的 Trace 数据。
  • 团队协作时,能清晰区分不同项目 / 场景的调试记录,避免所有 Trace 混在一起难以查找。
  • 如果不配置,默认会归到 “default” 项目下。

 LANGCHAIN_ENDPOINT:服务器地址,作用是:

  • 指定 LangSmith 服务器的 API 地址(默认是官方云端 https://api.smith.langchain.com)。

  • 仅在两种场景下需要配置:

    1. 公司内部部署了私有版 LangSmith(Self-hosted LangSmith),需要指向内网地址(如 http://langsmith.internal:8000);
    2. 国内用户访问官方云端不稳定,需要通过代理地址访问。

image.png

3. 代码中加载:

from dotenv import load_dotenv

# 加载 .env 文件
load_dotenv()

# 后续 LangChain 代码会自动读取这些配置
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-3.5-turbo")
# 调用 LLM 会自动被 LangSmith 追踪
response = llm.invoke("Hello LangSmith!")
print(response)

image.png

结果检查

我们随便调用一下自己代码中的大模型,就会在langsmith中看到数据

image.png