Skip to main content
本指南展示了LangGraph图API的基础知识。它介绍了状态,以及组合常见图结构,如序列分支循环。此外,它还涵盖了LangGraph的控制功能,包括用于map-reduce工作流的发送API和用于将状态更新与节点间的“跳跃”结合的命令API

安装

安装 langgraph
pip install -U langgraph
为更好的调试设置LangSmith 注册LangSmith以快速发现问题并提高您的LangGraph项目的性能。LangSmith允许您使用跟踪数据来调试、测试和监控使用LangGraph构建的LLM应用 — 在文档中了解更多如何开始的信息。

定义和更新状态

这里我们展示如何在LangGraph中定义和更新状态。我们将演示:
  1. 如何使用状态来定义图的模式
  2. 如何使用还原器来控制状态更新的处理方式。

定义状态

状态 在 LangGraph 中可以是 TypedDictPydantic 模型或数据类。以下我们将使用 TypedDict。有关使用 Pydantic 的详细信息,请参阅 本节 默认情况下,图将具有相同的输入和输出模式,状态决定了该模式。请参阅本节了解如何定义不同的输入和输出模式。 让我们考虑一个使用消息的简单示例。这代表了许多LLM应用中状态的多功能性表述。请参阅我们的概念页面获取更多详细信息。
from langchain.messages import AnyMessage
from typing_extensions import TypedDict

class State(TypedDict):
    messages: list[AnyMessage]
    extra_field: int
此状态跟踪一个包含 消息 对象的列表,以及一个额外的整数字段。

更新状态

让我们构建一个包含单个节点的示例图。我们的节点只是一个Python函数,它读取我们图的当前状态并对它进行更新。这个函数的第一个参数始终是状态:
from langchain.messages import AIMessage

def node(state: State):
    messages = state["messages"]
    new_message = AIMessage("Hello!")
    return {"messages": messages + [new_message], "extra_field": 10}
该节点简单地将一条消息添加到我们的消息列表中,并填充一个额外字段。
节点应直接返回对状态更新的操作,而不是直接修改状态。
接下来,我们定义一个包含此节点的简单图。我们使用 StateGraph 来定义一个在此状态上操作的图。然后我们使用 add_node 来填充我们的图。
from langgraph.graph import StateGraph

builder = StateGraph(State)
builder.add_node(node)
builder.set_entry_point("node")
graph = builder.compile()
LangGraph 提供了内置工具来可视化您的图。让我们检查我们的图。详见本节了解可视化详情。
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
简单图,单个节点 在这种情况下,我们的图仅执行单个节点。让我们进行简单的调用:
from langchain.messages import HumanMessage

result = graph.invoke({"messages": [HumanMessage("Hi")]})
result
{'messages': [HumanMessage(content='Hi'), AIMessage(content='Hello!')], 'extra_field': 10}
注意:
  • 我们通过更新状态的一个键来启动调用。
  • 我们在调用结果中接收整个状态。
为了方便,我们经常通过美化打印来检查消息对象的内容:
for message in result["messages"]:
    message.pretty_print()
================================ Human Message ================================

Hi
================================== Ai Message ==================================

Hello!

使用reducer处理状态更新

每个状态中的键都可以拥有自己的独立 reducer 函数,该函数控制节点更新如何应用。如果没有明确指定reducer函数,则假定所有对键的更新都应该覆盖它。 对于 TypedDict 状态模式,我们可以通过注释状态中相应的字段为还原函数来定义还原器。 在早期示例中,我们的节点通过向其中添加消息来更新状态中的 "messages" 键。下面,我们为此键添加一个reducer,以便更新可以自动追加:
from typing_extensions import Annotated

def add(left, right):
    """Can also import `add` from the `operator` built-in."""
    return left + right

class State(TypedDict):
    messages: Annotated[list[AnyMessage], add]  
    extra_field: int
现在我们可以简化我们的节点:
def node(state: State):
    new_message = AIMessage("Hello!")
    return {"messages": [new_message], "extra_field": 10}  
from langgraph.graph import START

graph = StateGraph(State).add_node(node).add_edge(START, "node").compile()

result = graph.invoke({"messages": [HumanMessage("Hi")]})

for message in result["messages"]:
    message.pretty_print()
================================ Human Message ================================

Hi
================================== Ai Message ==================================

Hello!

消息状态

在实践中,更新消息列表时需要考虑额外的因素:
  • 我们可能希望更新状态中的现有消息。
  • 我们可能希望接受消息格式的缩写,例如OpenAI格式
LangGraph 包含一个内置的 reducer add_messages,用于处理以下考虑因素:
from langgraph.graph.message import add_messages

class State(TypedDict):
    messages: Annotated[list[AnyMessage], add_messages]  
    extra_field: int

def node(state: State):
    new_message = AIMessage("Hello!")
    return {"messages": [new_message], "extra_field": 10}

graph = StateGraph(State).add_node(node).set_entry_point("node").compile()
input_message = {"role": "user", "content": "Hi"}  

result = graph.invoke({"messages": [input_message]})

for message in result["messages"]:
    message.pretty_print()
================================ Human Message ================================

Hi
================================== Ai Message ==================================

Hello!
这是一个适用于涉及聊天模型的应用的通用状态表示。LangGraph为了方便起见,包含了一个预构建的MessagesState,因此我们可以拥有:
from langgraph.graph import MessagesState

class State(MessagesState):
    extra_field: int

定义输入和输出模式

默认情况下,StateGraph 使用单个模式运行,并期望所有节点都使用该模式进行通信。然而,也可以为图定义不同的输入和输出模式。 当指定了不同的模式时,节点之间的通信仍然会使用内部模式。输入模式确保提供的输入与预期的结构匹配,而输出模式则根据定义的输出模式过滤内部数据,仅返回相关信息。 下面,我们将了解如何定义不同的输入和输出模式。
from langgraph.graph import StateGraph, START, END
from typing_extensions import TypedDict

# Define the schema for the input
class InputState(TypedDict):
    question: str

# Define the schema for the output
class OutputState(TypedDict):
    answer: str

# Define the overall schema, combining both input and output
class OverallState(InputState, OutputState):
    pass

# Define the node that processes the input and generates an answer
def answer_node(state: InputState):
    # Example answer and an extra key
    return {"answer": "bye", "question": state["question"]}

# Build the graph with input and output schemas specified
builder = StateGraph(OverallState, input_schema=InputState, output_schema=OutputState)
builder.add_node(answer_node)  # Add the answer node
builder.add_edge(START, "answer_node")  # Define the starting edge
builder.add_edge("answer_node", END)  # Define the ending edge
graph = builder.compile()  # Compile the graph

# Invoke the graph with an input and print the result
print(graph.invoke({"question": "hi"}))
{'answer': 'bye'}
请注意,调用invoke的输出仅包括输出模式。

在节点之间传递私有状态

在某些情况下,您可能希望节点交换对中间逻辑至关重要的信息,但这些信息不需要成为图的主架构的一部分。这些私有数据与图的整体输入/输出无关,并且仅应在某些节点之间共享。 以下,我们将创建一个包含三个节点(node_1、node_2和node_3)的示例顺序图。在这三个节点中,私有数据在第一步(node_1)和第二步(node_2)之间传递,而第三步(node_3)仅能访问公共整体状态。
from langgraph.graph import StateGraph, START, END
from typing_extensions import TypedDict

# The overall state of the graph (this is the public state shared across nodes)
class OverallState(TypedDict):
    a: str

# Output from node_1 contains private data that is not part of the overall state
class Node1Output(TypedDict):
    private_data: str

# The private data is only shared between node_1 and node_2
def node_1(state: OverallState) -> Node1Output:
    output = {"private_data": "set by node_1"}
    print(f"Entered node `node_1`:\n\tInput: {state}.\n\tReturned: {output}")
    return output

# Node 2 input only requests the private data available after node_1
class Node2Input(TypedDict):
    private_data: str

def node_2(state: Node2Input) -> OverallState:
    output = {"a": "set by node_2"}
    print(f"Entered node `node_2`:\n\tInput: {state}.\n\tReturned: {output}")
    return output

# Node 3 only has access to the overall state (no access to private data from node_1)
def node_3(state: OverallState) -> OverallState:
    output = {"a": "set by node_3"}
    print(f"Entered node `node_3`:\n\tInput: {state}.\n\tReturned: {output}")
    return output

# Connect nodes in a sequence
# node_2 accepts private data from node_1, whereas
# node_3 does not see the private data.
builder = StateGraph(OverallState).add_sequence([node_1, node_2, node_3])
builder.add_edge(START, "node_1")
graph = builder.compile()

# Invoke the graph with the initial state
response = graph.invoke(
    {
        "a": "set at start",
    }
)

print()
print(f"Output of graph invocation: {response}")
Entered node `node_1`:
    ut: {'a': 'set at start'}.
    urned: {'private_data': 'set by node_1'}
Entered node `node_2`:
    ut: {'private_data': 'set by node_1'}.
    urned: {'a': 'set by node_2'}
Entered node `node_3`:
    ut: {'a': 'set by node_2'}.
    urned: {'a': 'set by node_3'}

Output of graph invocation: {'a': 'set by node_3'}

使用 Pydantic 模型进行图状态

一个 StateGraph 在初始化时接受一个 state_schema 参数,该参数指定了图中节点可以访问和更新的状态的 “形状”。 在我们的示例中,我们通常使用原生 Python 的 TypedDictdataclass 来实现 state_schema,但 state_schema 可以是任何 类型 这里,我们将了解如何使用 Pydantic BaseModel 来为 state_schema 添加对 输入 的运行时验证。
已知限制
  • 目前,图的输出 不会 是 pydantic 模型的一个实例。
  • 运行时验证仅发生在节点输入上,而不是输出上。
  • pydantic 的验证错误跟踪不会显示错误发生在哪个节点。
  • Pydantic 的递归验证可能较慢。对于对性能敏感的应用程序,您可能希望考虑使用 dataclass
from langgraph.graph import StateGraph, START, END
from typing_extensions import TypedDict
from pydantic import BaseModel

# The overall state of the graph (this is the public state shared across nodes)
class OverallState(BaseModel):
    a: str

def node(state: OverallState):
    return {"a": "goodbye"}

# Build the state graph
builder = StateGraph(OverallState)
builder.add_node(node)  # node_1 is the first node
builder.add_edge(START, "node")  # Start the graph with node_1
builder.add_edge("node", END)  # End the graph after node_1
graph = builder.compile()

# Test the graph with a valid input
graph.invoke({"a": "hello"})
调用图时使用 无效 的输入
try:
    graph.invoke({"a": 123})  # Should be a string
except Exception as e:
    print("An exception was raised because `a` is an integer rather than a string.")
    print(e)
An exception was raised because `a` is an integer rather than a string.
1 validation error for OverallState
a
  Input should be a valid string [type=string_type, input_value=123, input_type=int]
    For further information visit https://errors.pydantic.dev/2.9/v/string_type
请见下文了解 Pydantic 模型状态的附加功能:
当使用 Pydantic 模型作为状态模式时,了解序列化工作原理非常重要,尤其是在以下情况下:
  • 将 Pydantic 对象作为输入传递
  • 从图中接收输出
  • 与嵌套的 Pydantic 模型协同工作
让我们看看这些行为在实际中的应用。
from langgraph.graph import StateGraph, START, END
from pydantic import BaseModel

class NestedModel(BaseModel):
    value: str

class ComplexState(BaseModel):
    text: str
    count: int
    nested: NestedModel

def process_node(state: ComplexState):
    # Node receives a validated Pydantic object
    print(f"Input state type: {type(state)}")
    print(f"Nested type: {type(state.nested)}")
    # Return a dictionary update
    return {"text": state.text + " processed", "count": state.count + 1}

# Build the graph
builder = StateGraph(ComplexState)
builder.add_node("process", process_node)
builder.add_edge(START, "process")
builder.add_edge("process", END)
graph = builder.compile()

# Create a Pydantic instance for input
input_state = ComplexState(text="hello", count=0, nested=NestedModel(value="test"))
print(f"Input object type: {type(input_state)}")

# Invoke graph with a Pydantic instance
result = graph.invoke(input_state)
print(f"Output type: {type(result)}")
print(f"Output content: {result}")

# Convert back to Pydantic model if needed
output_model = ComplexState(**result)
print(f"Converted back to Pydantic: {type(output_model)}")
Pydantic 对某些数据类型执行运行时类型强制转换。这可能有帮助,但如果你不了解它,也可能导致意外的行为。
from langgraph.graph import StateGraph, START, END
from pydantic import BaseModel

class CoercionExample(BaseModel):
    # Pydantic will coerce string numbers to integers
    number: int
    # Pydantic will parse string booleans to bool
    flag: bool

def inspect_node(state: CoercionExample):
    print(f"number: {state.number} (type: {type(state.number)})")
    print(f"flag: {state.flag} (type: {type(state.flag)})")
    return {}

builder = StateGraph(CoercionExample)
builder.add_node("inspect", inspect_node)
builder.add_edge(START, "inspect")
builder.add_edge("inspect", END)
graph = builder.compile()

# Demonstrate coercion with string inputs that will be converted
result = graph.invoke({"number": "42", "flag": "true"})

# This would fail with a validation error
try:
    graph.invoke({"number": "not-a-number", "flag": "true"})
except Exception as e:
    print(f"\nExpected validation error: {e}")
当在状态模式中处理LangChain消息类型时,序列化方面有一些重要的考虑因素。您应该使用 AnyMessage(而不是 BaseMessage)来确保通过消息对象进行正确的序列化和反序列化。
from langgraph.graph import StateGraph, START, END
from pydantic import BaseModel
from langchain.messages import HumanMessage, AIMessage, AnyMessage
from typing import List

class ChatState(BaseModel):
    messages: List[AnyMessage]
    context: str

def add_message(state: ChatState):
    return {"messages": state.messages + [AIMessage(content="Hello there!")]}

builder = StateGraph(ChatState)
builder.add_node("add_message", add_message)
builder.add_edge(START, "add_message")
builder.add_edge("add_message", END)
graph = builder.compile()

# Create input with a message
initial_state = ChatState(
    messages=[HumanMessage(content="Hi")], context="Customer support chat"
)

result = graph.invoke(initial_state)
print(f"Output: {result}")

# Convert back to Pydantic model to see message types
output_model = ChatState(**result)
for i, msg in enumerate(output_model.messages):
    print(f"Message {i}: {type(msg).__name__} - {msg.content}")

添加运行时配置

有时您希望在调用图时能够对其进行配置。例如,您可能希望在运行时指定要使用哪个LLM或系统提示,而无需将这些参数污染图的状态。 为了添加运行时配置:
  1. 为您的配置指定一个模式
  2. 将配置添加到节点或条件边的函数签名中
  3. 将配置传递到图中
见下方的简单示例:
from langgraph.graph import END, StateGraph, START
from langgraph.runtime import Runtime
from typing_extensions import TypedDict

# 1. Specify config schema
class ContextSchema(TypedDict):
    my_runtime_value: str

# 2. Define a graph that accesses the config in a node
class State(TypedDict):
    my_state_value: str

def node(state: State, runtime: Runtime[ContextSchema]):  
    if runtime.context["my_runtime_value"] == "a":  
        return {"my_state_value": 1}
    elif runtime.context["my_runtime_value"] == "b":  
        return {"my_state_value": 2}
    else:
        raise ValueError("Unknown values.")

builder = StateGraph(State, context_schema=ContextSchema)  
builder.add_node(node)
builder.add_edge(START, "node")
builder.add_edge("node", END)

graph = builder.compile()

# 3. Pass in configuration at runtime:
print(graph.invoke({}, context={"my_runtime_value": "a"}))  
print(graph.invoke({}, context={"my_runtime_value": "b"}))  
{'my_state_value': 1}
{'my_state_value': 2}
下面我们演示一个实际例子,说明如何在运行时配置使用哪个LLM。我们将使用OpenAI和Anthropic模型。
from dataclasses import dataclass

from langchain.chat_models import init_chat_model
from langgraph.graph import MessagesState, END, StateGraph, START
from langgraph.runtime import Runtime
from typing_extensions import TypedDict

@dataclass
class ContextSchema:
    model_provider: str = "anthropic"

MODELS = {
    "anthropic": init_chat_model("anthropic:claude-3-5-haiku-latest"),
    "openai": init_chat_model("openai:gpt-4.1-mini"),
}

def call_model(state: MessagesState, runtime: Runtime[ContextSchema]):
    model = MODELS[runtime.context.model_provider]
    response = model.invoke(state["messages"])
    return {"messages": [response]}

builder = StateGraph(MessagesState, context_schema=ContextSchema)
builder.add_node("model", call_model)
builder.add_edge(START, "model")
builder.add_edge("model", END)

graph = builder.compile()

# Usage
input_message = {"role": "user", "content": "hi"}
# With no configuration, uses default (Anthropic)
response_1 = graph.invoke({"messages": [input_message]}, context=ContextSchema())["messages"][-1]
# Or, can set OpenAI
response_2 = graph.invoke({"messages": [input_message]}, context={"model_provider": "openai"})["messages"][-1]

print(response_1.response_metadata["model_name"])
print(response_2.response_metadata["model_name"])
claude-3-5-haiku-20241022
gpt-4.1-mini-2025-04-14
下面我们演示一个实际例子,其中我们配置了两个运行时使用的参数:LLM 和系统消息。
from dataclasses import dataclass
from langchain.chat_models import init_chat_model
from langchain.messages import SystemMessage
from langgraph.graph import END, MessagesState, StateGraph, START
from langgraph.runtime import Runtime
from typing_extensions import TypedDict

@dataclass
class ContextSchema:
    model_provider: str = "anthropic"
    system_message: str | None = None

MODELS = {
    "anthropic": init_chat_model("anthropic:claude-3-5-haiku-latest"),
    "openai": init_chat_model("openai:gpt-4.1-mini"),
}

def call_model(state: MessagesState, runtime: Runtime[ContextSchema]):
    model = MODELS[runtime.context.model_provider]
    messages = state["messages"]
    if (system_message := runtime.context.system_message):
        messages = [SystemMessage(system_message)] + messages
    response = model.invoke(messages)
    return {"messages": [response]}

builder = StateGraph(MessagesState, context_schema=ContextSchema)
builder.add_node("model", call_model)
builder.add_edge(START, "model")
builder.add_edge("model", END)

graph = builder.compile()

# Usage
input_message = {"role": "user", "content": "hi"}
response = graph.invoke({"messages": [input_message]}, context={"model_provider": "openai", "system_message": "Respond in Italian."})
for message in response["messages"]:
    message.pretty_print()
================================ Human Message ================================

hi
================================== Ai Message ==================================

Ciao! Come posso aiutarti oggi?

添加重试策略

有许多场景可能需要您的节点具有自定义的重试策略,例如,当您调用API、查询数据库或调用LLM等。LangGraph允许您为节点添加重试策略。 要配置重试策略,请将 retry_policy 参数传递给 add_noderetry_policy 参数接受一个名为 RetryPolicy 的元组对象。以下我们使用默认参数实例化一个 RetryPolicy 对象,并将其与一个节点关联:
from langgraph.types import RetryPolicy

builder.add_node(
    "node_name",
    node_function,
    retry_policy=RetryPolicy(),
)
默认情况下,retry_on 参数使用 default_retry_on 函数,该函数在以下异常之外会进行重试:
  • ValueError
  • TypeError
  • ArithmeticError
  • ImportError
  • LookupError
  • NameError
  • SyntaxError
  • RuntimeError
  • ReferenceError
  • StopIteration
  • StopAsyncIteration
  • OSError
此外,对于来自流行HTTP请求库(如 requestshttpx)的异常,它仅在5xx状态码上重试。
考虑一个示例,其中我们从 SQL 数据库中读取。下面我们向节点传递了两种不同的重试策略:
import sqlite3
from typing_extensions import TypedDict
from langchain.chat_models import init_chat_model
from langgraph.graph import END, MessagesState, StateGraph, START
from langgraph.types import RetryPolicy
from langchain_community.utilities import SQLDatabase
from langchain.messages import AIMessage

db = SQLDatabase.from_uri("sqlite:///:memory:")
model = init_chat_model("anthropic:claude-3-5-haiku-latest")

def query_database(state: MessagesState):
    query_result = db.run("SELECT * FROM Artist LIMIT 10;")
    return {"messages": [AIMessage(content=query_result)]}

def call_model(state: MessagesState):
    response = model.invoke(state["messages"])
    return {"messages": [response]}

# Define a new graph
builder = StateGraph(MessagesState)
builder.add_node(
    "query_database",
    query_database,
    retry_policy=RetryPolicy(retry_on=sqlite3.OperationalError),
)
builder.add_node("model", call_model, retry_policy=RetryPolicy(max_attempts=5))
builder.add_edge(START, "model")
builder.add_edge("model", "query_database")
builder.add_edge("query_database", END)
graph = builder.compile()

添加节点缓存

节点缓存在需要避免重复操作的情况下很有用,例如进行耗时操作(无论是时间上还是成本上)。LangGraph 允许您为图中的节点添加个性化的缓存策略。 要配置缓存策略,请将 cache_policy 参数传递给 add_node 函数。在以下示例中,创建了一个具有 120 秒生存时间的 CachePolicy 对象,并使用默认的 key_func 生成器。然后将其与一个节点关联:
from langgraph.types import CachePolicy

builder.add_node(
    "node_name",
    node_function,
    cache_policy=CachePolicy(ttl=120),
)
然后,为了启用图级别的节点缓存,在编译图时设置 cache 参数。以下示例使用 InMemoryCache 设置具有内存缓存的图,但 SqliteCache 也可用。
from langgraph.cache.memory import InMemoryCache

graph = builder.compile(cache=InMemoryCache())

创建一系列步骤

先决条件 本指南假定您已熟悉上述关于状态的部分。
这里我们演示如何构建一个简单的步骤序列。我们将展示:
  1. 如何构建一个顺序图
  2. 构建类似图的内置简写
为了添加一系列节点,我们使用我们的.add_node.add_edge方法:
from langgraph.graph import START, StateGraph

builder = StateGraph(State)

# Add nodes
builder.add_node(step_1)
builder.add_node(step_2)
builder.add_node(step_3)

# Add edges
builder.add_edge(START, "step_1")
builder.add_edge("step_1", "step_2")
builder.add_edge("step_2", "step_3")
我们还可以使用内置的缩写 .add_sequence
builder = StateGraph(State).add_sequence([step_1, step_2, step_3])
builder.add_edge(START, "step_1")
LangGraph使您轻松地为应用程序添加底层持久化层。 这允许在节点执行之间进行状态检查点,因此您的LangGraph节点可以控制:它们还决定了执行步骤的流式传输方式,以及如何使用Studio来可视化您的应用程序并进行调试。让我们演示一个端到端的示例。我们将创建一个包含三个步骤的序列:
  1. 在状态的关键字中填充一个值
  2. 更新相同的值
  3. 填充不同的值
首先定义我们的状态。这决定了图的架构,还可以指定如何应用更新。详见本节获取更多详细信息。在我们的情况下,我们只需跟踪两个值:
from typing_extensions import TypedDict

class State(TypedDict):
    value_1: str
    value_2: int
我们的节点只是读取我们图的状态并对其进行更新的Python函数。此函数的第一个参数始终是状态:
def step_1(state: State):
    return {"value_1": "a"}

def step_2(state: State):
    current_value_1 = state["value_1"]
    return {"value_1": f"{current_value_1} b"}

def step_3(state: State):
    return {"value_2": 10}
请注意,在发布状态更新时,每个节点只需指定它希望更新的键的值即可。默认情况下,这将覆盖相应键的值。您还可以使用reducers来控制更新如何被处理——例如,您可以将连续的更新追加到键中。有关更多详细信息,请参阅本节
最后,我们定义了图。我们使用StateGraph来定义一个在此状态上操作的图。然后我们将使用 add_nodeadd_edge 来填充我们的图并定义其控制流。
from langgraph.graph import START, StateGraph

builder = StateGraph(State)

# Add nodes
builder.add_node(step_1)
builder.add_node(step_2)
builder.add_node(step_3)

# Add edges
builder.add_edge(START, "step_1")
builder.add_edge("step_1", "step_2")
builder.add_edge("step_2", "step_3")
指定自定义名称 您可以使用 .add_node 为节点指定自定义名称:
builder.add_node("my_node", step_1)
注意:
  • .add_edge 读取节点的名称,对于函数默认为 node.__name__
  • 我们必须指定图的入口点。为此,我们添加一个带有 起始节点 的边。
  • 当没有更多节点要执行时,图将停止。
我们接下来编译我们的图。这为图的架构提供了一些基本的检查(例如,识别孤立节点)。如果我们通过检查点器将持久性添加到我们的应用程序中,它也会被传递到这里。
graph = builder.compile()
LangGraph 提供了内置工具来可视化您的图。让我们检查我们的序列。请参阅此指南了解可视化详情。
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
步骤序列图让我们开始一个简单的调用:
graph.invoke({"value_1": "c"})
{'value_1': 'a b', 'value_2': 10}
注意:
  • 我们通过提供一个单个体态键的值来启动调用。我们必须始终至少提供一个键的值。
  • 我们传入的值被第一个节点覆盖了。
  • 第二个节点更新了值。
  • 第三个节点填充了不同的值。
内置简写 langgraph>=0.2.46 包含一个用于添加节点序列的内置简写 add_sequence。您可以使用以下方式编译相同的图:
builder = StateGraph(State).add_sequence([step_1, step_2, step_3])  
builder.add_edge(START, "step_1")

graph = builder.compile()

graph.invoke({"value_1": "c"})

创建分支

并行执行节点对于加快整体图操作至关重要。LangGraph提供了对节点并行执行的本地支持,这可以显著提高基于图的流程的性能。这种并行化是通过扇出和扇入机制实现的,利用了标准边和条件边。以下是一些示例,展示了如何添加创建适合您的分支数据流的方法。

并行运行图节点

在这个例子中,我们从 Node A 扩展到 B and C,然后收缩到 D。使用我们的状态,我们指定了reducer添加操作。这将组合或累积状态中特定键的值,而不是简单地覆盖现有值。对于列表,这意味着将新列表与现有列表连接起来。有关使用reducer更新状态的更多详细信息,请参阅上面的状态reducer部分。
import operator
from typing import Annotated, Any
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END

class State(TypedDict):
    # The operator.add reducer fn makes this append-only
    aggregate: Annotated[list, operator.add]

def a(state: State):
    print(f'Adding "A" to {state["aggregate"]}')
    return {"aggregate": ["A"]}

def b(state: State):
    print(f'Adding "B" to {state["aggregate"]}')
    return {"aggregate": ["B"]}

def c(state: State):
    print(f'Adding "C" to {state["aggregate"]}')
    return {"aggregate": ["C"]}

def d(state: State):
    print(f'Adding "D" to {state["aggregate"]}')
    return {"aggregate": ["D"]}

builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)
builder.add_node(c)
builder.add_node(d)
builder.add_edge(START, "a")
builder.add_edge("a", "b")
builder.add_edge("a", "c")
builder.add_edge("b", "d")
builder.add_edge("c", "d")
builder.add_edge("d", END)
graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
并行执行图 使用reducer,您可以观察到每个节点中添加的值是累积的。
graph.invoke({"aggregate": []}, {"configurable": {"thread_id": "foo"}})
Adding "A" to []
Adding "B" to ['A']
Adding "C" to ['A']
Adding "D" to ['A', 'B', 'C']
在上面的示例中,节点 "b""c" 在相同的 超级步骤 中并发执行。因为它们处于相同的步骤中,所以节点 "d""b""c" 都完成之后执行。重要的是,来自并行超步的更新可能不会始终有序。如果您需要来自并行超步的更新的一致、预定的排序,您应该将输出写入状态中的单独字段,并附带一个用于排序的值。
LangGraph在supsteps中执行节点,这意味着在并行执行并行分支的同时,整个超级步骤是事务性的。如果这些分支中的任何一个引发异常,则不会将这些更新应用于状态(整个超级步骤出错)。重要地,当使用 检查点器 时,超级步骤中成功节点的结果会被保存,并在恢复时不再重复。如果您遇到易出错的(可能需要处理不稳定的API调用),LangGraph提供了两种解决方案来应对这个问题:
  1. 您可以在节点内部编写常规的Python代码来捕获和处理异常。
  2. 您可以设置一个**重试策略**来指导图重试引发特定类型异常的节点。只有失败的分支会被重试,因此您无需担心执行重复工作。
一起,这些功能让您能够执行并行操作并完全控制异常处理。
设置最大并发数 在调用图时,您可以通过在配置中设置 max_concurrency 来控制最大并发任务数。
graph.invoke({"value_1": "c"}, {"configurable": {"max_concurrency": 10}})

延迟节点执行

延迟节点执行在您希望将节点执行推迟到所有其他待办任务完成时非常有用。这在分支长度不同的情况下尤其相关,这在像map-reduce流程这样的工作流中很常见。 上述示例展示了当每条路径只有一步时如何进行扇出和扇入。但如果一个分支有多个步骤呢?让我们在 "b" 分支中添加一个节点 "b_2"
import operator
from typing import Annotated, Any
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END

class State(TypedDict):
    # The operator.add reducer fn makes this append-only
    aggregate: Annotated[list, operator.add]

def a(state: State):
    print(f'Adding "A" to {state["aggregate"]}')
    return {"aggregate": ["A"]}

def b(state: State):
    print(f'Adding "B" to {state["aggregate"]}')
    return {"aggregate": ["B"]}

def b_2(state: State):
    print(f'Adding "B_2" to {state["aggregate"]}')
    return {"aggregate": ["B_2"]}

def c(state: State):
    print(f'Adding "C" to {state["aggregate"]}')
    return {"aggregate": ["C"]}

def d(state: State):
    print(f'Adding "D" to {state["aggregate"]}')
    return {"aggregate": ["D"]}

builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)
builder.add_node(b_2)
builder.add_node(c)
builder.add_node(d, defer=True)  
builder.add_edge(START, "a")
builder.add_edge("a", "b")
builder.add_edge("a", "c")
builder.add_edge("b", "b_2")
builder.add_edge("b_2", "d")
builder.add_edge("c", "d")
builder.add_edge("d", END)
graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
延迟执行图
graph.invoke({"aggregate": []})
Adding "A" to []
Adding "B" to ['A']
Adding "C" to ['A']
Adding "B_2" to ['A', 'B', 'C']
Adding "D" to ['A', 'B', 'C', 'B_2']
在上面的示例中,节点 "b""c" 在同一个超级步骤中并发执行。我们在节点 d 上设置了 defer=True,这样它将不会执行,直到所有挂起的任务完成。在这种情况下,这意味着 "d" 等待直到整个 "b" 分支完成。

条件分支

如果您的扇出(fan-out)应该根据状态在运行时变化,您可以使用add_conditional_edges来根据图状态选择一个或多个路径。以下是一个示例,其中节点a生成一个状态更新,该更新决定了后续节点。
import operator
from typing import Annotated, Literal, Sequence
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END

class State(TypedDict):
    aggregate: Annotated[list, operator.add]
    # Add a key to the state. We will set this key to determine
    # how we branch.
    which: str

def a(state: State):
    print(f'Adding "A" to {state["aggregate"]}')
    return {"aggregate": ["A"], "which": "c"}  

def b(state: State):
    print(f'Adding "B" to {state["aggregate"]}')
    return {"aggregate": ["B"]}

def c(state: State):
    print(f'Adding "C" to {state["aggregate"]}')
    return {"aggregate": ["C"]}

builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)
builder.add_node(c)
builder.add_edge(START, "a")
builder.add_edge("b", END)
builder.add_edge("c", END)

def conditional_edge(state: State) -> Literal["b", "c"]:
    # Fill in arbitrary logic here that uses the state
    # to determine the next node
    return state["which"]

builder.add_conditional_edges("a", conditional_edge)  

graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
条件分支图
result = graph.invoke({"aggregate": []})
print(result)
Adding "A" to []
Adding "C" to ['A']
{'aggregate': ['A', 'C'], 'which': 'c'}
您的条件边可以路由到多个目标节点。例如:
def route_bc_or_cd(state: State) -> Sequence[str]:
if state["which"] == "cd":
return ["c", "d"]
return ["b", "c"]

Map-Reduce 和 Send API

LangGraph 支持使用 Send API 实现map-reduce和其他高级分支模式。以下是如何使用它的一个示例:
from langgraph.graph import StateGraph, START, END
from langgraph.types import Send
from typing_extensions import TypedDict, Annotated
import operator

class OverallState(TypedDict):
    topic: str
    subjects: list[str]
    jokes: Annotated[list[str], operator.add]
    best_selected_joke: str

def generate_topics(state: OverallState):
    return {"subjects": ["lions", "elephants", "penguins"]}

def generate_joke(state: OverallState):
    joke_map = {
        "lions": "Why don't lions like fast food? Because they can't catch it!",
        "elephants": "Why don't elephants use computers? They're afraid of the mouse!",
        "penguins": "Why don't penguins like talking to strangers at parties? Because they find it hard to break the ice."
    }
    return {"jokes": [joke_map[state["subject"]]]}

def continue_to_jokes(state: OverallState):
    return [Send("generate_joke", {"subject": s}) for s in state["subjects"]]

def best_joke(state: OverallState):
    return {"best_selected_joke": "penguins"}

builder = StateGraph(OverallState)
builder.add_node("generate_topics", generate_topics)
builder.add_node("generate_joke", generate_joke)
builder.add_node("best_joke", best_joke)
builder.add_edge(START, "generate_topics")
builder.add_conditional_edges("generate_topics", continue_to_jokes, ["generate_joke"])
builder.add_edge("generate_joke", "best_joke")
builder.add_edge("best_joke", END)
graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
扇出型Map-reduce图
# Call the graph: here we call it to generate a list of jokes
for step in graph.stream({"topic": "animals"}):
    print(step)
{'generate_topics': {'subjects': ['lions', 'elephants', 'penguins']}}
{'generate_joke': {'jokes': ["Why don't lions like fast food? Because they can't catch it!"]}}
{'generate_joke': {'jokes': ["Why don't elephants use computers? They're afraid of the mouse!"]}}
{'generate_joke': {'jokes': ['Why don't penguins like talking to strangers at parties? Because they find it hard to break the ice.']}}
{'best_joke': {'best_selected_joke': 'penguins'}}

创建和控制循环

在创建具有环的图时,我们需要一种终止执行机制。这通常是通过添加一个条件边来实现的,一旦我们达到某些终止条件,它就会路由到结束节点。 您还可以在调用或流式传输图时设置图递归限制。递归限制设置图在引发错误之前允许执行的超步数量。有关递归限制的概念,请参阅此处 让我们考虑一个带有环的简单图,以便更好地理解这些机制的工作原理。
要返回您状态中的最后一个值而不是收到递归限制错误,请参阅下一节
在创建循环时,您可以包含一个指定终止条件的条件边:
builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)

def route(state: State) -> Literal["b", END]:
    if termination_condition(state):
        return END
    else:
        return "b"

builder.add_edge(START, "a")
builder.add_conditional_edges("a", route)
builder.add_edge("b", "a")
graph = builder.compile()
为了控制递归限制,请在配置中指定 "recursionLimit"。这将引发一个 GraphRecursionError,您可以捕获并处理它:
from langgraph.errors import GraphRecursionError

try:
    graph.invoke(inputs, {"recursion_limit": 3})
except GraphRecursionError:
    print("Recursion Error")
让我们定义一个具有简单环的图。请注意,我们使用条件边来实现终止条件。
import operator
from typing import Annotated, Literal
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END

class State(TypedDict):
    # The operator.add reducer fn makes this append-only
    aggregate: Annotated[list, operator.add]

def a(state: State):
    print(f'Node A sees {state["aggregate"]}')
    return {"aggregate": ["A"]}

def b(state: State):
    print(f'Node B sees {state["aggregate"]}')
    return {"aggregate": ["B"]}

# Define nodes
builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)

# Define edges
def route(state: State) -> Literal["b", END]:
    if len(state["aggregate"]) < 7:
        return "b"
    else:
        return END

builder.add_edge(START, "a")
builder.add_conditional_edges("a", route)
builder.add_edge("b", "a")
graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
简单循环图 此架构类似于一个ReAct智能体,其中节点 "a" 是一个工具调用模型,节点 "b" 代表工具。 在我们的 route 条件边中,我们指定在状态通过阈值长度后,应结束于 "aggregate" 列表。 调用图后,我们发现我们在节点 "a""b" 之间交替,一旦达到终止条件就终止。
graph.invoke({"aggregate": []})
Node A sees []
Node B sees ['A']
Node A sees ['A', 'B']
Node B sees ['A', 'B', 'A']
Node A sees ['A', 'B', 'A', 'B']
Node B sees ['A', 'B', 'A', 'B', 'A']
Node A sees ['A', 'B', 'A', 'B', 'A', 'B']

设置递归限制

在某些应用中,我们可能无法保证达到给定的终止条件。在这种情况下,我们可以设置图的递归限制。这将在一个给定的超步数量后抛出 GraphRecursionError。然后我们可以捕获并处理这个异常:
from langgraph.errors import GraphRecursionError

try:
    graph.invoke({"aggregate": []}, {"recursion_limit": 4})
except GraphRecursionError:
    print("Recursion Error")
Node A sees []
Node B sees ['A']
Node C sees ['A', 'B']
Node D sees ['A', 'B']
Node A sees ['A', 'B', 'C', 'D']
Recursion Error
我们不是通过抛出 GraphRecursionError 来处理,而是可以在状态中引入一个新的键来跟踪达到递归限制之前剩余的步骤数量。然后我们可以使用这个键来判断是否应该结束运行。LangGraph实现了一个特殊的RemainingSteps注解。在底层,它创建了一个ManagedValue通道——一个将在我们的图运行期间存在且不再存在的状态通道。
import operator
from typing import Annotated, Literal
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END
from langgraph.managed.is_last_step import RemainingSteps

class State(TypedDict):
    aggregate: Annotated[list, operator.add]
    remaining_steps: RemainingSteps

def a(state: State):
    print(f'Node A sees {state["aggregate"]}')
    return {"aggregate": ["A"]}

def b(state: State):
    print(f'Node B sees {state["aggregate"]}')
    return {"aggregate": ["B"]}

# Define nodes
builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)

# Define edges
def route(state: State) -> Literal["b", END]:
    if state["remaining_steps"] <= 2:
        return END
    else:
        return "b"

builder.add_edge(START, "a")
builder.add_conditional_edges("a", route)
builder.add_edge("b", "a")
graph = builder.compile()

# Test it out
result = graph.invoke({"aggregate": []}, {"recursion_limit": 4})
print(result)
Node A sees []
Node B sees ['A']
Node A sees ['A', 'B']
{'aggregate': ['A', 'B', 'A']}
为了更好地理解递归限制的工作原理,让我们考虑一个更复杂的例子。下面我们实现了一个循环,但其中一步扩展为两个节点:
import operator
from typing import Annotated, Literal
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END

class State(TypedDict):
    aggregate: Annotated[list, operator.add]

def a(state: State):
    print(f'Node A sees {state["aggregate"]}')
    return {"aggregate": ["A"]}

def b(state: State):
    print(f'Node B sees {state["aggregate"]}')
    return {"aggregate": ["B"]}

def c(state: State):
    print(f'Node C sees {state["aggregate"]}')
    return {"aggregate": ["C"]}

def d(state: State):
    print(f'Node D sees {state["aggregate"]}')
    return {"aggregate": ["D"]}

# Define nodes
builder = StateGraph(State)
builder.add_node(a)
builder.add_node(b)
builder.add_node(c)
builder.add_node(d)

# Define edges
def route(state: State) -> Literal["b", END]:
    if len(state["aggregate"]) < 7:
        return "b"
    else:
        return END

builder.add_edge(START, "a")
builder.add_conditional_edges("a", route)
builder.add_edge("b", "c")
builder.add_edge("b", "d")
builder.add_edge(["c", "d"], "a")
graph = builder.compile()
from IPython.display import Image, display

display(Image(graph.get_graph().draw_mermaid_png()))
复杂循环图,带有分支这张图看起来很复杂,但可以将其概念化为超步骤的循环:
  1. 节点A
  2. 节点B
  3. 节点C和D
  4. 节点A
我们有四个超级步骤的循环,其中节点C和D是并发执行的。调用图之前的状态,我们发现我们在达到终止条件之前完成了两个完整的“圈”。
result = graph.invoke({"aggregate": []})
Node A sees []
Node B sees ['A']
Node D sees ['A', 'B']
Node C sees ['A', 'B']
Node A sees ['A', 'B', 'C', 'D']
Node B sees ['A', 'B', 'C', 'D', 'A']
Node D sees ['A', 'B', 'C', 'D', 'A', 'B']
Node C sees ['A', 'B', 'C', 'D', 'A', 'B']
Node A sees ['A', 'B', 'C', 'D', 'A', 'B', 'C', 'D']
然而,如果我们把递归限制设置为四,我们只能完成一圈,因为每一圈包含四个超级步骤:
from langgraph.errors import GraphRecursionError

try:
    result = graph.invoke({"aggregate": []}, {"recursion_limit": 4})
except GraphRecursionError:
    print("Recursion Error")
Node A sees []
Node B sees ['A']
Node C sees ['A', 'B']
Node D sees ['A', 'B']
Node A sees ['A', 'B', 'C', 'D']
Recursion Error

异步

使用异步编程范式在并发执行IO密集型代码时可以显著提升性能(例如,同时向聊天模型提供商发送API请求)。 要将图算法的 sync 实现转换为 async 实现,您需要:
  1. 更新 nodes,使用 async def 替代 def
  2. 适当地更新代码内部使用 await
  3. 根据需要使用 .ainvoke.astream 调用图。
因为许多LangChain对象实现了可运行协议,该协议包含所有sync方法的async变体,所以通常将sync图升级为async图相当快。 请参见下面的示例。为了演示底层LLM的异步调用,我们将包括一个聊天模型:
👉 Read the OpenAI chat model integration docs
pip install -U "langchain[openai]"
import os
from langchain.chat_models import init_chat_model

os.environ["OPENAI_API_KEY"] = "sk-..."

model = init_chat_model("openai:gpt-4.1")
from langchain.chat_models import init_chat_model
from langgraph.graph import MessagesState, StateGraph

async def node(state: MessagesState):  
    new_message = await llm.ainvoke(state["messages"])  
    return {"messages": [new_message]}

builder = StateGraph(MessagesState).add_node(node).set_entry_point("node")
graph = builder.compile()

input_message = {"role": "user", "content": "Hello"}
result = await graph.ainvoke({"messages": [input_message]})  
异步流式传输 查看流式传输指南以获取使用异步流式传输的示例。

使用 Command 结合控制流和状态更新

结合控制流(边)和状态更新(节点)可能很有用。例如,您可能希望在同一个节点中同时执行状态更新并决定下一个要前往的节点。LangGraph通过从节点函数返回一个命令对象来实现这一点:
def my_node(state: State) -> Command[Literal["my_other_node"]]:
    return Command(
        # state update
        update={"foo": "bar"},
        # control flow
        goto="my_other_node"
    )
以下是一个端到端的示例。让我们创建一个包含3个节点:A、B和C的简单图。我们首先执行节点A,然后根据节点A的输出决定接下来是前往节点B还是节点C。
import random
from typing_extensions import TypedDict, Literal
from langgraph.graph import StateGraph, START
from langgraph.types import Command

# Define graph state
class State(TypedDict):
    foo: str

# Define the nodes

def node_a(state: State) -> Command[Literal["node_b", "node_c"]]:
    print("Called A")
    value = random.choice(["b", "c"])
    # this is a replacement for a conditional edge function
    if value == "b":
        goto = "node_b"
    else:
        goto = "node_c"

    # note how Command allows you to BOTH update the graph state AND route to the next node
    return Command(
        # this is the state update
        update={"foo": value},
        # this is a replacement for an edge
        goto=goto,
    )

def node_b(state: State):
    print("Called B")
    return {"foo": state["foo"] + "b"}

def node_c(state: State):
    print("Called C")
    return {"foo": state["foo"] + "c"}
我们现在可以使用上述节点创建StateGraph。请注意,图中没有用于路由的条件边!这是因为控制流是在node_a内部的Command中定义的。
builder = StateGraph(State)
builder.add_edge(START, "node_a")
builder.add_node(node_a)
builder.add_node(node_b)
builder.add_node(node_c)
# NOTE: there are no edges between nodes A, B and C!

graph = builder.compile()
您可能已经注意到我们使用了 Command 作为返回类型注解,例如 Command[Literal["node_b", "node_c"]]。这对于图形渲染是必要的,并告知 LangGraph node_a 可以导航到 node_bnode_c
from IPython.display import display, Image

display(Image(graph.get_graph().draw_mermaid_png()))
基于命令的图导航 如果我们多次运行该图,我们会看到它根据节点A中的随机选择采取不同的路径(A -> B 或 A -> C)。
graph.invoke({"foo": ""})
Called A
Called C

导航到父图中某个节点

如果您正在使用子图,您可能希望从一个子图中的节点导航到不同的子图(即父图中的不同节点)。为此,您可以在Command中指定graph=Command.PARENT
def my_node(state: State) -> Command[Literal["my_other_node"]]:
    return Command(
        update={"foo": "bar"},
        goto="other_subgraph",  # where `other_subgraph` is a node in the parent graph
        graph=Command.PARENT
    )
让我们使用上面的示例来演示这一点。我们将通过将上面的示例中的 nodeA 改为一个单节点图,并将其作为子图添加到我们的父图中来实现这一点。
使用 Command.PARENT 更新状态 当你从子图节点向父图节点发送更新,且该键由父图和子图 状态模式 共享时,你必须为父图状态中要更新的键定义一个 reducer。请参见下面的示例。
import operator
from typing_extensions import Annotated

class State(TypedDict):
    # NOTE: we define a reducer here
    foo: Annotated[str, operator.add]  

def node_a(state: State):
    print("Called A")
    value = random.choice(["a", "b"])
    # this is a replacement for a conditional edge function
    if value == "a":
        goto = "node_b"
    else:
        goto = "node_c"

    # note how Command allows you to BOTH update the graph state AND route to the next node
    return Command(
        update={"foo": value},
        goto=goto,
        # this tells LangGraph to navigate to node_b or node_c in the parent graph
        # NOTE: this will navigate to the closest parent graph relative to the subgraph
        graph=Command.PARENT,  
    )

subgraph = StateGraph(State).add_node(node_a).add_edge(START, "node_a").compile()

def node_b(state: State):
    print("Called B")
    # NOTE: since we've defined a reducer, we don't need to manually append
    # new characters to existing 'foo' value. instead, reducer will append these
    # automatically (via operator.add)
    return {"foo": "b"}  

def node_c(state: State):
    print("Called C")
    return {"foo": "c"}  

builder = StateGraph(State)
builder.add_edge(START, "subgraph")
builder.add_node("subgraph", subgraph)
builder.add_node(node_b)
builder.add_node(node_c)

graph = builder.compile()
graph.invoke({"foo": ""})
Called A
Called C

在内部工具中使用

一个常见的用例是从工具内部更新图状态。例如,在一个客户支持应用程序中,您可能希望在对话开始时根据客户的账户号码或ID查找客户信息。要从工具中更新图状态,您可以从工具中返回 Command(update={"my_custom_key": "foo", "messages": [...]})
@tool
def lookup_user_info(tool_call_id: Annotated[str, InjectedToolCallId], config: RunnableConfig):
    """Use this to look up user information to better assist them with their questions."""
    user_info = get_user_info(config.get("configurable", {}).get("user_id"))
    return Command(
        update={
            # update the state keys
            "user_info": user_info,
            # update the message history
            "messages": [ToolMessage("Successfully looked up user information", tool_call_id=tool_call_id)]
        }
    )
您必须在使用 messages(或用于消息历史的任何状态键)从工具返回 Command 时包含 Command.update,并且 messages 中的消息列表必须包含一个 ToolMessage。这对于生成的消息历史有效至关重要(LLM 提供商要求工具调用后的 AI 消息必须跟随工具结果消息)。
如果您正在使用通过 Command 更新状态的工具,我们建议使用预构建的 ToolNode,它可以自动处理返回 Command 对象的工具,并将它们传播到图状态。如果您正在编写调用工具的自定义节点,则需要手动传播工具返回的 Command 对象,作为节点的更新。

可视化您的图

这里我们演示如何可视化您创建的图。 您可以可视化任何任意的,包括状态图 让我们通过绘制分形来享受一些乐趣 :)
import random
from typing import Annotated, Literal
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END
from langgraph.graph.message import add_messages

class State(TypedDict):
    messages: Annotated[list, add_messages]

class MyNode:
    def __init__(self, name: str):
        self.name = name
    def __call__(self, state: State):
        return {"messages": [("assistant", f"Called node {self.name}")]}

def route(state) -> Literal["entry_node", END]:
    if len(state["messages"]) > 10:
        return END
    return "entry_node"

def add_fractal_nodes(builder, current_node, level, max_level):
    if level > max_level:
        return
    # Number of nodes to create at this level
    num_nodes = random.randint(1, 3)  # Adjust randomness as needed
    for i in range(num_nodes):
        nm = ["A", "B", "C"][i]
        node_name = f"node_{current_node}_{nm}"
        builder.add_node(node_name, MyNode(node_name))
        builder.add_edge(current_node, node_name)
        # Recursively add more nodes
        r = random.random()
        if r > 0.2 and level + 1 < max_level:
            add_fractal_nodes(builder, node_name, level + 1, max_level)
        elif r > 0.05:
            builder.add_conditional_edges(node_name, route, node_name)
        else:
            # End
            builder.add_edge(node_name, END)

def build_fractal_graph(max_level: int):
    builder = StateGraph(State)
    entry_point = "entry_node"
    builder.add_node(entry_point, MyNode(entry_point))
    builder.add_edge(START, entry_point)
    add_fractal_nodes(builder, entry_point, 1, max_level)
    # Optional: set a finish point if required
    builder.add_edge(entry_point, END)  # or any specific node
    return builder.compile()

app = build_fractal_graph(3)

Mermaid

我们还可以将图类转换为Mermaid语法。
print(app.get_graph().draw_mermaid())
%%{init: {'flowchart': {'curve': 'linear'}}}%%
graph TD;
    tart__([<p>__start__</p>]):::first
    ry_node(entry_node)
    e_entry_node_A(node_entry_node_A)
    e_entry_node_B(node_entry_node_B)
    e_node_entry_node_B_A(node_node_entry_node_B_A)
    e_node_entry_node_B_B(node_node_entry_node_B_B)
    e_node_entry_node_B_C(node_node_entry_node_B_C)
    nd__([<p>__end__</p>]):::last
    tart__ --> entry_node;
    ry_node --> __end__;
    ry_node --> node_entry_node_A;
    ry_node --> node_entry_node_B;
    e_entry_node_B --> node_node_entry_node_B_A;
    e_entry_node_B --> node_node_entry_node_B_B;
    e_entry_node_B --> node_node_entry_node_B_C;
    e_entry_node_A -.-> entry_node;
    e_entry_node_A -.-> __end__;
    e_node_entry_node_B_A -.-> entry_node;
    e_node_entry_node_B_A -.-> __end__;
    e_node_entry_node_B_B -.-> entry_node;
    e_node_entry_node_B_B -.-> __end__;
    e_node_entry_node_B_C -.-> entry_node;
    e_node_entry_node_B_C -.-> __end__;
    ssDef default fill:#f2f0ff,line-height:1.2
    ssDef first fill-opacity:0
    ssDef last fill:#bfb6fc

PNG

如果需要,我们可以将图渲染为 .png。这里我们可以选择三种选项:
  • 使用 Mermaid.ink API(无需额外包)
  • 使用 Mermaid + Pyppeteer(需要 pip install pyppeteer
  • 使用 graphviz(需要 pip install graphviz
使用 Mermaid.Ink 默认情况下,draw_mermaid_png() 使用 Mermaid.Ink 的 API 生成图表。
from IPython.display import Image, display
from langchain_core.runnables.graph import CurveStyle, MermaidDrawMethod, NodeStyles

display(Image(app.get_graph().draw_mermaid_png()))
分形图可视化 使用 Mermaid + Pyppeteer
import nest_asyncio

nest_asyncio.apply()  # Required for Jupyter Notebook to run async functions

display(
    Image(
        app.get_graph().draw_mermaid_png(
            curve_style=CurveStyle.LINEAR,
            node_colors=NodeStyles(first="#ffdfba", last="#baffc9", default="#fad7de"),
            wrap_label_n_words=9,
            output_file_path=None,
            draw_method=MermaidDrawMethod.PYPPETEER,
            background_color="white",
            padding=10,
        )
    )
)
使用Graphviz
try:
    display(Image(app.get_graph().draw_png()))
except ImportError:
    print(
        "You likely need to install dependencies for pygraphviz, see more here https://github.com/pygraphviz/pygraphviz/blob/main/INSTALL.txt"
    )