Skip to main content

概述

构建智能体(或任何 LLM 应用)的难点在于使其足够可靠。虽然它们可能适用于原型,但在实际用例中常常会失败。

智能体为什么会失败?

当智能体失败时,通常是因为智能体内部的 LLM 调用采取了错误的行动 / 没有按预期执行。LLM 失败的原因有二:
  1. 底层的 LLM 能力不足
  2. 正确的上下文未被传递给 LLM
通常情况下 - 实际上是第二个原因导致智能体不可靠。 上下文工程是指以恰当的格式提供恰当的信息和工具,从而使 LLM 能够完成任务。这是 AI 工程师的首要工作。缺乏“恰当的”上下文是构建更可靠智能体的首要障碍,而 LangChain 的智能体抽象正是为促进上下文工程而独特设计的。
对上下文工程不熟悉吗?从概念概述开始,来了解不同类型的上下文以及何时使用它们。

智能体循环

一个典型的智能体循环包含两个主要步骤:
  1. 模型调用 - 使用提示词和可用工具调用 LLM,返回响应或执行工具的请求
  2. 工具执行 - 执行 LLM 请求的工具,返回工具结果
核心智能体循环图
此循环会继续,直到 LLM 决定结束。

可控制的内容

要构建可靠的智能体,你需要控制智能体循环的每一步发生什么,以及步骤之间发生什么。
上下文类型您控制的内容瞬态或持久
模型上下文模型调用的输入(指令、消息历史、工具、响应格式)瞬态
工具上下文工具可访问和产出的内容(读/写状态、存储、运行时上下文)持久
生命周期上下文模型与工具调用之间的处理过程(摘要生成、防护机制、日志记录等)持久

Transient context

LLM 在单次调用中看到的内容。您可以修改消息、工具或提示,而无需更改状态中保存的内容。

Persistent context

跨回合保存在状态中的内容。生命周期钩子和工具写入会永久地修改此内容。

数据源

在整个过程中,你的智能体访问(读取/写入)不同的数据源:
数据源别名作用域示例
运行时上下文静态配置会话作用域用户 ID、API 密钥、数据库连接、权限、环境设置
状态短期记忆会话作用域当前消息、上传的文件、身份验证状态、工具结果
存储长期记忆跨会话用户偏好、提取的见解、记忆、历史数据

工作原理

LangChain 中间件 是其底层机制,它使上下文工程对于使用 LangChain 的开发者而言切实可行。 中间件允许您介入智能体生命周期的任何步骤,并:
  • 更新上下文
  • 跳转到智能体生命周期的不同步骤
在本指南中,你会看到频繁使用中间件 API 作为实现上下文工程目标的手段。

模型上下文

控制每个模型调用的输入内容 - 指令、可用工具、使用的模型以及输出格式。这些决策直接影响可靠性和成本。

System Prompt

开发者给大语言模型的基础指令。

Messages

发送给大语言模型的完整消息列表(对话历史)。

Tools

智能体可以访问以执行操作的工具。

Model

将被调用的实际模型(包括配置)。

Response Format

模型最终响应的模式规范。
所有这些类型的模型上下文都可以从 状态(短期记忆)、存储(长期记忆)或 运行时上下文(静态配置)中获取。

系统提示

系统提示设定了 LLM 的行为和能力。不同的用户、上下文或对话阶段需要不同的指令。成功的智能体会利用记忆、偏好和配置,为对话的当前状态提供合适的指令。
从状态中访问消息数量或对话上下文:
import { createAgent } from "langchain";

const agent = createAgent({
  model: "openai:gpt-4o",
  tools: [...],
  middleware: [
    dynamicSystemPromptMiddleware((state) => {
      // Read from State: check conversation length
      const messageCount = state.messages.length;

      let base = "You are a helpful assistant.";

      if (messageCount > 10) {
        base += "\nThis is a long conversation - be extra concise.";
      }

      return base;
    }),
  ],
});

消息

消息构成了发送给 LLM 的提示。 管理消息的内容至关重要,以确保 LLM 拥有正确的信息来做出良好的回应。
当与当前查询相关时,从 State 中注入已上传文件的上下文:
import { createMiddleware } from "langchain";

const injectFileContext = createMiddleware({
  name: "InjectFileContext",
  wrapModelCall: (request, handler) => {
    // request.state is a shortcut for request.state.messages
    const uploadedFiles = request.state.uploadedFiles || [];  

    if (uploadedFiles.length > 0) {
      // Build context about available files
      const fileDescriptions = uploadedFiles.map(file =>
        `- ${file.name} (${file.type}): ${file.summary}`
      );

      const fileContext = `Files you have access to in this conversation:
${fileDescriptions.join("\n")}

Reference these files when answering questions.`;

      // Inject file context before recent messages
      const messages = [  
        ...request.messages  // Rest of conversation
        { role: "user", content: fileContext }
      ];
      request = request.override({ messages });  
    }

    return handler(request);
  },
});

const agent = createAgent({
  model: "openai:gpt-4o",
  tools: [...],
  middleware: [injectFileContext],
});
临时的与持久的消息更新:上面的示例使用 wrap_model_call 进行临时更新——修改发送给模型的消息用于单次调用,而不改变保存在状态中的内容。对于修改状态的持久化更新(如 生命周期上下文 中的摘要示例),请使用 before_modelafter_model 等生命周期钩子来永久更新对话历史。详情请参阅 中间件文档

工具

工具让模型与数据库、API和外部系统交互。你如何定义和选择工具直接影响模型是否能有效完成任务。

定义工具

每个工具都需要一个清晰的名称、描述、参数名称和参数描述。这些不仅仅是元数据——它们会引导模型推理何时以及如何使用该工具。
import { tool } from "@langchain/core/tools";
import { z } from "zod";

const searchOrders = tool(
  async ({ userId, status, limit = 10 }) => {
    // Implementation here
  },
  {
    name: "search_orders",
    description: `Search for user orders by status.

    Use this when the user asks about order history or wants to check
    order status. Always filter by the provided status.`,
    schema: z.object({
      userId: z.string().describe("Unique identifier for the user"),
      status: z.enum(["pending", "shipped", "delivered"]).describe("Order status to filter by"),
      limit: z.number().default(10).describe("Maximum number of results to return"),
    }),
  }
);

选择工具

并非所有工具都适用于所有场景。工具过多可能会使模型不堪重负(上下文过载)并增加错误;工具太少则会限制其能力。动态工具选择会根据认证状态、用户权限、功能开关或对话阶段来调整可用工具集。
仅在达到特定对话里程碑后启用高级工具:
import { createMiddleware } from "langchain";

const stateBasedTools = createMiddleware({
  name: "StateBasedTools",
  wrapModelCall: (request, handler) => {
    // Read from State: check authentication and conversation length
    const state = request.state;  
    const isAuthenticated = state.authenticated || false;  
    const messageCount = state.messages.length;

    let filteredTools = request.tools;

    // Only enable sensitive tools after authentication
    if (!isAuthenticated) {
      filteredTools = request.tools.filter(t => t.name.startsWith("public_"));  
    } else if (messageCount < 5) {
      filteredTools = request.tools.filter(t => t.name !== "advanced_search");  
    }

    return handler({ ...request, tools: filteredTools });  
  },
});
查看动态选择工具获取更多示例。

模型

不同的模型有不同的优势、成本和上下文窗口。为当前任务选择合适的模型,这在智能体运行过程中可能会发生变化。
根据状态中的对话长度使用不同的模型:
import { createMiddleware, initChatModel } from "langchain";

// Initialize models once outside the middleware
const largeModel = initChatModel("anthropic:claude-sonnet-4-5");
const standardModel = initChatModel("openai:gpt-4o");
const efficientModel = initChatModel("openai:gpt-4o-mini");

const stateBasedModel = createMiddleware({
  name: "StateBasedModel",
  wrapModelCall: (request, handler) => {
    // request.messages is a shortcut for request.state.messages
    const messageCount = request.messages.length;  
    let model;

    if (messageCount > 20) {
      model = largeModel;
    } else if (messageCount > 10) {
      model = standardModel;
    } else {
      model = efficientModel;
    }

    return handler({ ...request, model });  
  },
});
请参阅动态模型以获取更多示例。

响应格式

结构化输出将非结构化文本转换为经过验证的结构化数据。在提取特定字段或为下游系统返回数据时,自由格式文本是不够的。 工作原理: 当您提供一个 schema 作为响应格式时,模型的最终响应保证符合该 schema。智能体运行模型/工具调用循环,直到模型完成工具调用,然后将最终响应强制转换为所提供的格式。

定义格式

模式定义指导模型。字段名、类型和描述精确指定了输出应遵循的格式。
import { z } from "zod";

const customerSupportTicket = z.object({
  category: z.enum(["billing", "technical", "account", "product"]).describe(
    "Issue category"
  ),
  priority: z.enum(["low", "medium", "high", "critical"]).describe(
    "Urgency level"
  ),
  summary: z.string().describe(
    "One-sentence summary of the customer's issue"
  ),
  customerSentiment: z.enum(["frustrated", "neutral", "satisfied"]).describe(
    "Customer's emotional tone"
  ),
}).describe("Structured ticket information extracted from customer message");

选择格式

动态响应格式选择根据用户偏好、对话阶段或角色调整模式——早期返回简单格式,复杂度增加时则返回详细格式。
基于对话状态配置结构化输出:
import { createMiddleware } from "langchain";
import { z } from "zod";

const simpleResponse = z.object({
  answer: z.string().describe("A brief answer"),
});

const detailedResponse = z.object({
  answer: z.string().describe("A detailed answer"),
  reasoning: z.string().describe("Explanation of reasoning"),
  confidence: z.number().describe("Confidence score 0-1"),
});

const stateBasedOutput = createMiddleware({
  name: "StateBasedOutput",
  wrapModelCall: (request, handler) => {
    // request.state is a shortcut for request.state.messages
    const messageCount = request.messages.length;  

    if (messageCount < 3) {
      // Early conversation - use simple format
      responseFormat = simpleResponse; 
    } else {
      // Established conversation - use detailed format
      responseFormat = detailedResponse; 
    }

    return handler({ ...request, responseFormat });
  },
});

工具上下文

工具的特殊之处在于它们既能读取也能写入上下文。 在最基本的情况下,当工具执行时,它会接收 LLM 的请求参数并返回一条工具消息。工具完成其工作并生成结果。 工具也可以为模型获取重要信息,使其能够执行并完成任务。

读取

大多数现实世界中的工具所需要的,不仅仅是 LLM 的参数。它们需要用户 ID 来查询数据库,需要 API 密钥来访问外部服务,或需要当前会话状态来做出决策。工具通过读取状态、存储和运行时上下文来获取这些信息。
从 State 读取以检查当前会话信息:
import * as z from "zod";
import { tool } from "@langchain/core/tools";
import { createAgent } from "langchain";

const checkAuthentication = tool(
  async (_, { runtime }) => {
    // Read from State: check current auth status
    const currentState = runtime.state;
    const isAuthenticated = currentState.authenticated || false;

    if (isAuthenticated) {
      return "User is authenticated";
    } else {
      return "User is not authenticated";
    }
  },
  {
    name: "check_authentication",
    description: "Check if user is authenticated",
    schema: z.object({}),
  }
);

写入

工具结果可用于帮助智能体完成给定任务。工具既可以直接将结果返回给模型,也可以更新智能体的记忆,从而让重要上下文在后续步骤中可用。
使用命令写入状态来跟踪会话特定信息:
import * as z from "zod";
import { tool } from "@langchain/core/tools";
import { createAgent } from "langchain";
import { Command } from "@langchain/langgraph";

const authenticateUser = tool(
  async ({ password }, { runtime }) => {
    // Perform authentication
    if (password === "correct") {
      // Write to State: mark as authenticated using Command
      return new Command({
        update: { authenticated: true },
      });
    } else {
      return new Command({ update: { authenticated: false } });
    }
  },
  {
    name: "authenticate_user",
    description: "Authenticate user and update State",
    schema: z.object({
      password: z.string(),
    }),
  }
);
请参阅工具,了解在工具中访问状态、存储和运行时上下文的全面示例。

生命周期上下文

控制核心智能体步骤之间发生的事情——拦截数据流,以实现摘要、护栏和日志记录等横切关注点。 正如您在 模型上下文工具上下文 中看到的,中间件 是一种让上下文工程变得实用的机制。中间件允许您钩入智能体生命周期中的任何步骤,并执行以下任一操作:
  1. 更新上下文 - 修改状态和存储以持久化更改、更新对话历史或保存洞察
  2. 生命周期跳转 - 基于上下文跳转到智能体周期中的不同步骤(例如,如果满足某个条件则跳过工具执行,使用修改后的上下文重复模型调用)
智能体循环中的中间件钩子

示例:摘要

最常见的生命周期模式之一,是在对话历史过长时自动进行压缩。与模型上下文中展示的临时消息修剪不同,摘要会持久化地更新状态——即用摘要永久替换旧消息,并保存下来供所有后续对话轮次使用。 LangChain 为此提供了内置中间件:
import { createAgent, summarizationMiddleware } from "langchain";

const agent = createAgent({
  model: "openai:gpt-4o",
  tools: [...],
  middleware: [
    summarizationMiddleware({
      model: "openai:gpt-4o-mini",
      maxTokensBeforeSummary: 4000, // Trigger summarization at 4000 tokens
      messagesToKeep: 20, // Keep last 20 messages after summary
    }),
  ],
});
当对话超出 token 限制时,SummarizationMiddleware 会自动:
  1. 使用单独的 LLM 调用总结较早的消息
  2. 在 State 中用一条摘要消息永久替换它们
  3. 保留最近的消息完整以提供上下文
对话历史摘要会被永久更新 - 未来的回合将看到摘要,而不是原始消息。
要查看内置中间件、可用钩子以及如何创建自定义中间件的完整列表,请参阅 Middleware 文档

最佳实践

  1. 从简单开始 - 从静态提示和工具入手,仅在必要时添加动态功能
  2. 逐步测试 - 一次只添加一个上下文工程特性
  3. 监控性能 - 跟踪模型调用、令牌使用量和延迟
  4. 使用内置中间件 - 利用 SummarizationMiddlewareLLMToolSelectorMiddleware
  5. 记录你的上下文策略 - 明确说明传递了哪些上下文以及为什么传递
  6. 理解瞬时与持久化的区别:模型上下文的更改是瞬时的(每次调用),而生命周期上下文的更改会持久化到状态中

相关资源