Skip to content

如何为 LangSmith 中的图执行传递自定义运行 ID 或设置标签和元数据

在 IDE 或终端中调试图执行有时会很困难。LangSmith 允许您使用跟踪数据来调试、测试和监控使用 LangGraph 构建的 LLM 应用 — 阅读LangSmith 文档以获取有关如何开始的更多信息。

为了更容易地识别和分析在图调用期间生成的跟踪,您可以在运行时设置附加配置(请参阅RunnableConfig):

字段 类型 描述
run_name str 此调用跟踪运行的名称。默认为类名。
run_id UUID 此调用跟踪运行的唯一标识符。如果未提供,将生成新的 UUID。
tags List[str] 此调用及任何子调用(例如,调用 LLM 的 Chain)的标签。您可以使用它们来过滤调用。
metadata Dict[str, Any] 此调用及任何子调用(例如,调用 LLM 的 Chain)的元数据。键应该是字符串,值应该是 JSON 可序列化的。

LangGraph 图实现了LangChain Runnable 接口,并在 invokeainvokestream 等方法中接受第二个参数 (RunnableConfig)。

LangSmith 平台将允许您根据 run_namerun_idtagsmetadata 搜索和过滤跟踪。

简而言之

import uuid
# 生成一个随机 UUID——它必须是一个 UUID
config = {"run_id": uuid.uuid4()}, "tags": ["my_tag1"], "metadata": {"a": 5}}
# 适用于所有标准的 Runnable 方法
# 如 invoke, batch, ainvoke, astream_events 等
graph.stream(inputs, config, stream_mode="values")

本指南的其余部分将展示一个完整的代理。

设置

首先,让我们安装所需的包并设置我们的 API 密钥

%%capture --no-stderr
%pip install --quiet -U langgraph langchain_openai
import getpass
import os


def _set_env(var: str):
    if not os.environ.get(var):
        os.environ[var] = getpass.getpass(f"{var}: ")


_set_env("OPENAI_API_KEY")
_set_env("LANGSMITH_API_KEY")

Tip

注册 LangSmith 以快速发现问题并提高 LangGraph 项目的性能。LangSmith 允许您使用跟踪数据来调试、测试和监控使用 LangGraph 构建的 LLM 应用 — 在此处了解有关如何开始的更多信息。

定义 Graph

在本例中,我们将使用预构建的 ReAct 代理

API Reference: ChatOpenAI | create_react_agent | tool

from langchain_openai import ChatOpenAI
from typing import Literal
from langgraph.prebuilt import create_react_agent
from langchain_core.tools import tool

# 首先我们初始化要使用的的模型。
model = ChatOpenAI(model="gpt-4o", temperature=0)


# 对于本教程,我们将使用自定义工具,该工具返回两个城市(NYC 和 SF)的预定义天气值
@tool
def get_weather(city: Literal["nyc", "sf"]):
    """使用此工具获取天气信息。"""
    if city == "nyc":
        return "It might be cloudy in nyc"
    elif city == "sf":
        return "It's always sunny in sf"
    else:
        raise AssertionError("Unknown city")


tools = [get_weather]


# 定义图
graph = create_react_agent(model, tools=tools)

运行 Graph

现在我们已经定义了我们的图,让我们运行一次并在 LangSmith 中查看跟踪。为了方便在 LangSmith 中访问我们的跟踪,我们将向配置中传递一个自定义的 run_id

这假设您已设置 LANGSMITH_API_KEY 环境变量。

请注意,您还可以通过设置 LANGCHAIN_PROJECT 环境变量来配置要跟踪的项目,默认情况下,运行将跟踪到 default 项目。

import uuid


def print_stream(stream):
    for s in stream:
        message = s["messages"][-1]
        if isinstance(message, tuple):
            print(message)
        else:
            message.pretty_print()


inputs = {"messages": [("user", "what is the weather in sf")]}

config = {"run_name": "agent_007", "tags": ["cats are awesome"]}

print_stream(graph.stream(inputs, config, stream_mode="values"))

输出:

================================ Human Message ==================================

what is the weather in sf
================================== Ai Message ===================================
Tool Calls:
  get_weather (call_9ZudXyMAdlUjptq9oMGtQo8o)
 Call ID: call_9ZudXyMAdlUjptq9oMGtQo8o
  Args:
    city: sf
================================= Tool Message ==================================
Name: get_weather

It's always sunny in sf
================================== Ai Message ===================================

The weather in San Francisco is currently sunny.

在 LangSmith 中查看跟踪

现在我们已经运行了我们的图,让我们前往 LangSmith 查看我们的跟踪。首先,点击您跟踪到的项目(在本例中为默认项目)。您应该会看到一个具有自定义运行名称“agent_007”的运行。

LangSmith Trace View

此外,您将能够事后使用提供的标签或元数据来过滤跟踪。例如,

LangSmith Filter View