LangSmith使用手册
注册
https://smith.langchain.com/
进来之后呢,我是直接使用的github登陆的
然后根据提示不断的选择即可,因为是英文的,不知道怎么选的,可以截图问一下豆包,其实就是根据你的代码水平等给你推荐不同的使用建议,然后我们就到了主页面
核心功能区
Tracing:追踪应用的调用链路,用于调试问题。Monitoring:监控应用的运行指标,如延迟、错误率。Datasets & Experiments:管理测试数据集,运行对比实验。Prompts:集中管理和版本控制你的提示词。Playground:快速测试不同提示词和模型效果的沙箱环境。Studio:可视化构建复杂的 AI 应用流程。Deployments:将应用部署到生产环境。
快捷启动卡片
- Get started with Tracing:通过一个预置的 ReAct 代理来快速上手链路追踪功能。
- Debug and iterate in Studio:在 Studio 中可视化你的应用图结构,并进行实时测试与迭代。
- Try out the Playground:在 Playground 中测试不同的提示词和模型,快速验证效果。
Observability(可观测性)面板
这是平台的监控核心区域,展示了你的追踪项目运行状态:
-
核心指标:
Most Recent Run:最近一次项目运行时间Trace Count:7 天内的调用追踪次数Error Rate:错误率(当前为 0%)P50/P99 Latency:响应延迟(代表 50% 和 99% 请求的耗时,当前均为 7.31 秒)
-
这个面板让你可以随时掌握应用的健康状况,及时发现性能瓶颈或异常。
去获取Api Key
首先,点击一下setting
然后,我们描述一下这个token的适用场景,由于我们现在只是尝试使用,就暂时先选第一个Personal即可
- Personal Access Token:个人访问令牌,作为个人用户身份验证 API 的凭证,适合本地开发、个人调试等场景。
- Default Workspace:设置该 API Key 默认关联的工作区,当请求中未指定工作区时,系统会使用这里的默认值。
接下来,一定要保存好自己的token,只有在这个时候,你的token才是完整的
项目配置
配置文件(适合团队协作)
创建 .env 文件(放在项目根目录),用 python-dotenv 加载:
1. 安装依赖:
pip install python-dotenv
2. 创建 .env 文件:
LANGCHAIN_API_KEY=你的_api_key_here
LANGCHAIN_TRACING_V2=true
LANGCHAIN_PROJECT=测试项目-智能客服
LANGCHAIN_TRACING_V2=true:开启新一代追踪功能
这是控制 LangSmith 追踪是否生效的核心开关,具体作用:
- 启用 LangChain 生态(LangChain/LangGraph)与 LangSmith 的深度集成,让所有 LLM 调用、工具调用、智能体执行流程都被自动记录并上传到 LangSmith 平台。
- “V2” 代表这是第二代追踪系统,相比第一代(
LANGCHAIN_TRACING),它支持更细粒度的追踪(比如 LangGraph 的节点状态、多智能体协作流程)、更丰富的元数据记录(Token 消耗、执行时间),也是目前官方推荐的配置。 - 如果设为
false或不配置,所有执行流程都不会被追踪,LangSmith 控制台看不到任何记录。
LANGCHAIN_PROJECT=团队项目-用户问答:给追踪数据分类
这是用于归类 Trace 数据的 “文件夹” 标签,具体作用:
- LangSmith 控制台会按
PROJECT名称分组展示所有追踪记录,比如你可以给 “用户问答场景” 设一个项目名,给 “文档总结场景” 设另一个,方便在控制台快速筛选、管理不同业务的 Trace 数据。 - 团队协作时,能清晰区分不同项目 / 场景的调试记录,避免所有 Trace 混在一起难以查找。
- 如果不配置,默认会归到 “default” 项目下。
LANGCHAIN_ENDPOINT:服务器地址,作用是:
-
指定 LangSmith 服务器的 API 地址(默认是官方云端
https://api.smith.langchain.com)。 -
仅在两种场景下需要配置:
- 公司内部部署了私有版 LangSmith(Self-hosted LangSmith),需要指向内网地址(如
http://langsmith.internal:8000); - 国内用户访问官方云端不稳定,需要通过代理地址访问。
- 公司内部部署了私有版 LangSmith(Self-hosted LangSmith),需要指向内网地址(如
3. 代码中加载:
from dotenv import load_dotenv
# 加载 .env 文件
load_dotenv()
# 后续 LangChain 代码会自动读取这些配置
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-3.5-turbo")
# 调用 LLM 会自动被 LangSmith 追踪
response = llm.invoke("Hello LangSmith!")
print(response)
结果检查
我们随便调用一下自己代码中的大模型,就会在langsmith中看到数据