news 2026/5/8 6:24:53

Multi-Agent全面爆发!收藏这篇,一文吃透多智能体核心架构及LangGraph框架

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Multi-Agent全面爆发!收藏这篇,一文吃透多智能体核心架构及LangGraph框架

大模型应用开发正从"单智能体独奏"迈向"多智能体合唱"时代。如今,单智能体在处理电商客服、自动化运维这类多步骤复杂任务时,常因功能单一陷入瓶颈。而多智能体系统通过分工协作,能像团队一样拆解任务、高效执行——这其中,LangGraph作为LangChain生态的"工作流引擎",凭借图结构的灵活编排能力,成为开发多智能体应用的首选框架。

无论你是刚入门大模型的小白,还是想拓展技术栈的程序员,这篇文章都能帮你从基础到实战掌握LangGraph。建议先收藏,后续开发遇到问题随时查阅!

1、LangGraph概述

1.1 什么是LangGraph

LangGraph 是LangChain 生态的一部分,专门用于构建基于大模型(LLM)的复杂、有状态、多智能体应用的框架,核心思想是将应用的工作流程抽象为一个有向图结构,通过节点和边来定义任务的执行步骤和逻辑流,从而提供了远超传统线性链式调用的灵活性和控制力。相比传统的线性执行模式,LangGraph 支持条件分支、循环、并行等复杂控制流,能够实现状态持久化、断点续跑、时间旅行、人机协作等高级功能,并提供了多智能体协作、层级架构等多种架构模式。在实际应用中,LangGraph已成功应用于智能客服、自动化运维、研究 Agent 等场景,展现出卓越的适应性和扩展性。

LangGraph在Github上的热度变化

1.2 为什么使用LangGraph

LangGraph 相比传统的线性执行模式具有显著的技术优势。

  1. LangGraph 提供了强大的状态管理机制,允许 Agent 在不同节点之间传递和维护信息,从而实现长期的记忆和多轮对话能力。这种集中式的状态管理避免了传统方法中状态分散在多个变量中的问题,提高了系统的可维护性和可观测性。
  2. 通过定义节点和边,可以精确控制 Agent 的执行逻辑,包括条件分支、循环和并行执行等
  3. LangGraph 能够无缝集成各种外部工具(如搜索引擎、数据库、API 等),让 Agent 能够获取实时信息、执行特定操作,极大地扩展了 LLM 的能力边界。
  4. 图结构使得 Agent 的运行路径清晰可见,便于理解 Agent 的决策过程,并在出现问题时进行快速定位和调试。
  5. 模块化与可复用性。每个节点都可以是一个独立的、可复用的组件,维护性高且易于扩展。通过子图机制,复杂的工作流可以被分解为多个可独立开发和测试的模块,提高了开发和测试效率。
1.3 安装使用

安装LangGraph

pip install -U langgraph

使用LangGraph创建一个简单的Agent

def get_weather(city: str) -> str: """获取指定城市的天气信息。 Args: city: 城市名称 Returns: 返回该城市的天气描述 """ return f"今天{city}是晴天" # 创建模型 model = ChatOpenAI( model_name=model_name, base_url=base_url, api_key=api_key ) # 使用LangGraph提供的API创建Agent agent = create_react_agent( model=model, # 添加模型 tools=[get_weather], # 添加工具 prompt="你是一个天气助手" ) human_message = HumanMessage(content="今天深圳天气怎么样?") response = agent.invoke( {"messages": [human_message]} ) print(response)

运行模式:Agent可以通过两种主要模式执行

  1. 同步:使用 .invoke() 或 .stream()
  2. 异步:使用 await .ainvoke() 或 async for 配合 .astream()

最大迭代次数:为了避免Agent无限循环执行,可以设置一个递归限制

response = agent.invoke( {"messages": [{"role": "user", "content": "预定一个深圳到北京的机票"}]}, {"recursion_limit": 10} # 指定最大迭代次数 )

2、LangGraph核心

2.1 Graph(图)

图是一种由节点和边组成的用于描述节点之间关系的数据结构,分为无向图和有向图,有向图是带有方向的图。LangGraph通过有向图定义AI工作流中的执行步骤和执行顺序,从而实现复杂、有状态、可循环的应用程序逻辑。

2.2 LangGraph核心要素(State、Edge、Node)

1、State(状态)

在LangGraph中,State是一个贯穿整个工作流执行过程中的共享数据的结构,代表当前快照,它存储了从工作流开始到结束的所有必要的信息(历史对话、检索到的文档、工具执行结果等),在各个节点中共享,且每个节点都可以修改。State可以是TypedDict类型,也可以是pydantic中的BaseModel类型。

# 定义状态 class GraphState(TypedDict): process_data: dict # 默认更新策略为替换(后续会讲更新策略) # 创建一个状态图,并指定状态 graph = StateGraph(GraphState)

2、Node(节点)

Node是LangGraph中的一个基本处理单元,代表工作流中的一个操作步骤,可以是一个Agent、调用大模型、工具或一个函数(说白了就是绑定一个函数,具体逻辑可以干任何事情)。

Node的设计原则:

  • 单一职责原则:每个节点应该只负责一项职责,避免功能过于复杂
  • 无状态设计:节点本身不应该保存状态,所有数据都通过输入状态传递
  • 幂等性:相同的输入应该产生相同的输出,确保可重试性
  • 可测试性:节点逻辑应该易于单元测试

如下是添加一个节点的例子:

# 定义一个节点,入参为state def input_node(state: GraphState) -> GraphState: print(state) return {"process_data": {"input": "input_value"}} # 定义带参数的node节点 def process_node(state: dict, param1: int, param2: str) -> dict: print(state, param1, param2) return {"process_data": {"process": "process_value"}} graph = StateGraph(GraphState) # 添加inpu节点 graph.add_node("input", input_node) # 给process_node节点绑定参数 process_with_params = partial(process_node, param1=100, param2="test") # 添加带参数的node节点 graph.add_node("process", process_with_params)

特殊节点:

在LangGraph中有两个特殊的节点 __START__ (开始节点)和 __END__(结束节点)

__START__节点:开始节点,确定应该首先调用哪些节点。

from langgraph.graph import START # 第一个执行的节点是 node_start graph.add_edge(START, "node_start")

也可以通过graph.set_entry_point(“node_start”) 函数设置起始节点,等价于graph.add_edge(START, “node_start”)

__END__节点:终止节点,表示后续没有其他节点可以继续执行了(非必须)。

from langgraph.graph import END # node_end 节点执行后,没有后续节点了 graph.add_edge("node_a", END)

也可以通过graph.set_finish_point(“node_end”) 函数设置结束节点,等价于graph.add_edge(“node_start”, END)

错误处理和重试机制:

LangGraph还提供了错误处理和重试机制来指定重试次数、重试间隔、重试异常等,用于保证系统的可靠性。

# 重试策略 retry_policy = RetryPolicy( max_attempts=3, # 最大重试次数 initial_interval=1, # 初始间隔 jitter=True, # 抖动(添加随机性避免重试风暴) backoff_factor=2, # 退避乘数(每次重试间隔时间的增长倍数) retry_on=[RequestException, Timeout] # 只重试这些异常 ) graph.add_node("process", process_node, retry=retry_policy)

节点缓存:

LangGraph 支持根据节点输入对节点进行缓存,用于加快节点的响应速度

  1. 缓存键与命中:当一个节点开始执行时,系统会使用其配置的 key_func 根据当前节点的输入数据生成一个唯一的键。LangGraph 会检查缓存中是否存在这个键。如果存在(缓存命中),则直接返回之前存储的结果,跳过该节点的实际执行。如果不存在(缓存未命中),则正常执行节点函数,并将结果与缓存键关联后存入缓存。
  2. 缓存有效期:ttl 参数能控制缓存的有效期。例如,对于依赖实时数据的天气查询节点,可以设置较短的 ttl(如60秒)。而对于处理静态信息或变化不频繁数据的节点,则可以设置较长的 ttl甚至不设置(None),让缓存永久有效,直到手动清除
class State(TypedDict): x: int result: int builder = StateGraph(State) def expensive_node(state: State) -> dict[str, int]: # 模拟耗时 time.sleep(2) return {"result": state["x"] * 2} #添加节点,并指定缓存策略 builder.add_node("expensive_node", expensive_node, cache_policy=CachePolicy(ttl=3)) builder.set_entry_point("expensive_node") builder.set_finish_point("expensive_node") graph = builder.compile(cache=InMemoryCache())

3、Edge(边)

Edge定义了节点之间的连接和执行顺序,以及不同节点之间是如何通讯的,一个节点可以有多个出边(指向多个节点),多个节点也可以指向同一个节点(Map-Reduce),如下是添加边的代码:

# 添加固定边,执行顺序:start -> input -> process -> output -> end graph.add_edge(START, "input") graph.add_edge("input", "process") graph.add_edge("process", "output") graph.add_edge("output", END) # 编译图,保证生成的图是正确的,如果添加了边,没添加节点,会报错 app = graph.compile() app.invoke({})

4、构建一个完整的图

图的构建流程:1、初始化一个StateGraph实例。2、添加节点。3、定义边,将所有的节点连接起来。4、设置特殊节点,入口和出口(可选)。5、编译图。6、执行工作流。

# 定义状态 class GraphState(TypedDict): process_data: dict def input_node(state: GraphState) -> GraphState: print(state) return {"process_data": {"input": "input_value"}} def output_node(state: GraphState) -> GraphState: print(state) return {"process_data": {"output": "output_value"}} def process_node(state: dict) -> dict: print(state) return {"process_data": {"process": "process_value"}} # 创建一个状态图,并指定状态 graph = StateGraph(GraphState) # 添加input、process、output节点 graph.add_node("input", input_node) graph.add_node("process", process_node) graph.add_node("output", output_node) # 添加固定边,执行顺序:start -> input -> process -> output -> end graph.add_edge(START, "input") graph.add_edge("input", "process") graph.add_edge("process", "output") graph.add_edge("output", END) # 编译图,保证生成的图是正确的,如果添加了边,没添加节点,会报错 app = graph.compile()# 执行 app.invoke({})

2.3 状态合并策略(Reducers)

LangGraph工作流中,State作为贯穿整个节点之间共享数据的结构,每一个节点都可以读取当前State的数据,并且可以更新。Reducer是定义多个节点之间State如何更新的(覆盖、合并、添加等)。

1、直接覆盖:如果没有为状态字段指定 Reducer,默认会覆盖更新。也就是说,后执行的节点返回的值会直接覆盖先执行节点的值,即下一个节点的State数据是上一个节点的返回。

class OverrideState(TypedDict): process_data : dict # 未指定合并策略,默认覆盖,上一个节点的返回是下一个节点的值

2、Annotated:使用类型注解指定合并策略

class AddState(TypedDict): data_int: Annotated[int, add] # 数字相加 data_list: Annotated[list, add] # 合并两个列表 data_str: Annotated[str, add] # 字符串拼接 def add_node1(state: AddState) -> AddState: print(state) return {"data_int": 1, "data_list": [1], "data_str": "hello "} def add_node2(state: AddState) -> AddState: print(state) return {"data_int": 2, "data_list": [2], "data_str": "world"}

3、内置Reducer:add_messages(消息列表合并)

LangGraph提供的专用Reducer函数,能智能的合并消息列表,不只是简单的追加,add_messages能够保证消息列表正确被累计,常用在多轮对话系统中,主要逻辑包括:

  • 追加新消息:如果新消息的 ID 不在现有列表中,则将其追加到列表末尾。
  • 覆盖旧消息:如果新消息的 ID 与列表中某条现有消息的 ID 相同,则用新消息替换掉旧消息。用于处理工具调用中间结果或更新流式生成的临时消息。
  • 自动类型转换:如果传入一个字符串(如 “Hello World”),add_messages会自动将其转换为HumanMessage(用户消息)
class MessageState(TypedDict): # 消息列表,使用add_messages合并消息列表 messages: Annotated[list, add_messages] def system_node(state: MessageState) -> dict: return {"messages": [SystemMessage(content="你是一个精通LangGraph的专家工程师.")]} def user_input_node(state: MessageState) -> dict: return {"messages": [HumanMessage(content="什么是LangGraph?")]} def ai_response_node(state: MessageState) -> dict: return {"messages": [AIMessage(content="LangGraph是一个...")]} def tool_node(state: MessageState) -> dict: return {"messages": [ToolMessage(content="工具调用参数params1", tool_call_id="tool_call_id")]}

4、自定义Reducer:实现自定义合并逻辑

def merge_dict_reducer(source: dict, new: dict) -> dict: # 自定义合并逻辑 result = source.copy() result.update(new) return result def max_reducer(source: int, new: int) -> int: # 自定义合并逻辑 return max(source, new) class CustomReducerState(TypedDict): # 使用自定义Reducer的状态 max_score: Annotated[int, max_reducer] # 保留最大值 metadata: Annotated[dict, merge_dict_reducer] # 字典合并
2.4 条件边(Conditional Edge)

实际应用中,工作流的下一个节点可能并不是固定的,需要根据当前的执行状态去确定需要路由到哪一个节点。条件边可以动态控制执行流程,LangGraph中可以指定路由函数,来选择具体要执行的节点(可以是多个节点)

def route_by_sentiment(state: GraphState) -> str: # 路由逻辑...返回最终的条件 return "condition_1" graph = StateGraph(GraphState) graph.add_node("node1", node1) graph.add_node("node2", node2) graph.add_node("node3", node3) # 添加路由函数,参数:当前节点,路由函数,路由函数返回的条件与node的映射 graph.add_conditional_edges( START, route_by_sentiment, { "condition_1": "node1", "condition_2": "node2", "condition_3": "node3" } ) # 所有处理节点都连接到END graph.add_edge("node1", END) graph.add_edge("node2", END) graph.add_edge("node3", END) app = graph.compile()

LangGraph 提供了图的可视化,可以通过调用函数保存图,用于查看工作流是否与预期定义的规则一致。

png_data = app.get_graph().draw_mermaid_png() with open("graph.png", "wb") as f: f.write(png_data)

2.5 Send 和 Command

Send和Command是两种用于实现高级工作流控制的核心机制,用于支持动态地决定下一步执行哪个节点

1、Send:动态创建多个执行分支,实现并行处理,每个Send对象都指定了一个执行目标节点和传递给该节点的参数,LangGraph会并行执行所有的这些任务。比如可以用在Map-Reduce的场景,并行执行多个子节点并最终汇总到一个总节点。

def route_tasks(state: MapReduceState) -> list[Send]: # 为每个任务创建一个Send对象 sends = [] for idx, task in enumerate(state['tasks']): # 创建node任务及相应的参数 send = Send("process_task",{"task_id": idx,"task_name": task}) sends.append(send) # 返回所有的目标节点 return sends # 路由函数,返回 Send 列表 graph.add_conditional_edges("generate_tasks", route_tasks) # 所有process_task完成后,汇总结果 graph.add_edge("process_task", "reduce_results")

2、Command:不仅可以指定下一个节点,还支持更新状态、处理中断恢复,以及在嵌套图之间导航。常用于复杂的人机交互(Human-in-the-loop)和多智能体协同工作中智能体与智能体之间交接执行权(handoffs)

# 在节点函数中返回 Command 来实现动态路由 def agent_node(state: State) -> Command: if need_help(state): # 决定将任务移交给另一个node,并更新状态 return Command( goto="expert_agent", update={"messages": state["messages"] + [new_message]} ) else: return Command(goto="END")

Command与条件边的区别是:条件边只会路由下一个node节点,而Command不仅路由下一个node节点,还支持状态更新,如果需要同时更新状态和路由到不同的节点时,则使用 Command。

2.6 状态持久化

状态持久化指的是在程序运行时将瞬间的状态保存下来,以便后续需要的时候能够重新恢复执行,用于解决因为程序退出、重启等事件而丢失任务。在 LangGraph 如果使用了持久化,工作流执行的每个步骤结束后,系统会自动将当前整个图的状态(包括所有变量、历史消息、下一步要执行的节点等信息)完整地保存下来,这份存档就是一个检查点(Checkpoint),LangGraph支持存储在内存、Redis、DB等存储介质中。检查点通过thread_id(会话id,不是操作系统中的线程id)区分不同的会话,后续重新执行时会使用。

memory = MemorySaver() app = graph.compile(checkpointer=memory) # 使用内存保存检查点 config = {"configurable": {"thread_id": "recovery_thread"}} # 必须配置会话ID result = app.invoke({"value": 5, "operations": []}, config=config) # 获取所有的检查点 checkpoints = list(app.get_state_history(config)) # 恢复:从指定检查点继续执行 recovery_config = checkpoints[2].config recovered_result = app.invoke(None, config=recovery_config)

检查点是由一个StateSnapshot对象表示,具有以下关键属性:

  1. config: 与此检查点关联的配置,如检查点id、线程id等。
  2. metadata: 与此检查点关联的元数据。
  3. values: 在此时间点的状态值。
  4. next: 一个元组,包含图中接下来要执行的节点名称。
  5. tasks: 一个PregelTask对象的元组,包含有关接下来要执行的任务的信息。如果该步骤之前执行过,将包含错误信息。如果图在节点内部被动态中断,任务将包含与中断相关的其他数据。
class StateSnapshot(NamedTuple): """Snapshot of the state of the graph at the beginning of a step.""" values: dict[str, Any] | Any """Current values of channels.""" next: tuple[str, ...] """The name of the node to execute in each task for this step.""" config: RunnableConfig """Config used to fetch this snapshot.""" metadata: CheckpointMetadata | None """Metadata associated with this snapshot.""" created_at: str | None """Timestamp of snapshot creation.""" parent_config: RunnableConfig | None """Config used to fetch the parent snapshot, if any.""" tasks: tuple[PregelTask, ...] """Tasks to execute in this step. If already attempted, may contain an error.""" interrupts: tuple[Interrupt, ...] """Interrupts that occurred in this step that are pending resolution."""

2.7 时间旅行

如果使用状态持久化,则LangGraph在执行每一个节点的时候都会将整个图的状态及相关信息保存下来,包括所有变量、消息历史、下一步要执行的节点等,因此在任何一个节点都可以重新恢复当前的执行流程。LangGraph的时间旅行就是用来回溯、检查、修改一个工作流执行过程中的历史状态,并从某个历史节点重新执行,从而实现对智能体决策过程的调试、分析和路径探索。常用在以下场景:

  1. 调试场景:当系统出现问题时,可以回溯到之前的状态,重新执行以定位问题
  2. 审计需求:需要验证某个历史时刻的系统状态和执行结果
  3. 分支探索:在某个状态点尝试不同的执行路径,比较结果差异
checkpoints = list(app.get_state_history(config)) # 查看所有的步骤,注意,checkpoints的第一个值是Graph执行的最后一个节点(顺序是反的) for i, checkpoint in enumerate(checkpoints): print(f"步骤 {i}: 下一节点 {checkpoint.next}, 状态值 {checkpoint.values}") # 获取一个检查点 checkpoint = checkpoints[2] # 更新状态,这会替换整个data_list app.update_state( checkpoint.config, {"data_list": ["updated_value"]} # 完全替换状态 ) # 从更新后的检查点继续执行 result = app.invoke(None, config=checkpoint.config)
2.8 人机协作(Human-in-the-Loop)

在一个多Agent架构中,有时并非全自动化处理,可能需要人工参与才能继续后续的操作(比如我们在使用CodeBuddy编程或执行某个命令前,都需要人工确认是否采纳或执行)。HIL就是通过在关键节点引入人类干预,实现 AI 系统的可控性和准确性。人机协作能弥补 AI 的 “能力盲区” 和人类的 “效率瓶颈”,在保证处理速度的同时,大幅提升结果的准确性、安全性和适用性。

LangGraph通过中断机制、状态持久化、恢复执行机制在Agent自动化工作流中嵌入人工干预,实现人机协同。

def human_feedback_node(state: HumanInLoopState) -> dict: # 定义中断信息,告诉外界为何中断以及需要什么样的输入来恢复 interrupt_data = { "type": "human_review", "request": state['request'], "analysis": state['analysis'], "prompt": "请输入: 同意 / 拒绝" } # 使用interrupt()函数暂停工作流,等待人工输入 human_response = interrupt(interrupt_data) print(f"收到用户输入: {human_response}") # 解析人工输入,其他业务逻辑 # ... return { "human_feedback": human_response.get("feedback"), "approved": human_response.get("decision"), "messages": [f"人工反馈: {human_response.get('feedback')}"] } # 添加人工反馈节点,其他节点省略 graph.add_node("human_feedback", human_feedback_node) # 添加人工反馈边,其他节点省略 graph.add_edge("analyze", "human_feedback") # 添加条件边,根据用户反馈来选择调用后续的节点 builder.add_conditional_edges( "human_feedback", route_by_human_decision, { "process_approval": "process_approval", "process_rejection": "process_rejection" } ) memory = MemorySaver() # 编译图并启用检查点 app = graph.compile(checkpointer=memory) # 配置会话id,用于区分不同的会话 config = {"configurable": {"thread_id": str(uuid.uuid4())}} # 首次执行图,执行到human_feedback节点会中断,invoke立即返回# 返回的结果会包含中断信息,result.get(__interrupt__) result = graph.invoke(initial_input, config) # 模拟人工输入(实际应用中来自用户界面) human_decision = { "decision": "同意", "feedback": "用户反馈" } # 重新恢复工作流,继续执行后续节点 resume_command = Command(resume=human_decision) final_result = graph.invoke(resume_command, config)

注意:调用interrupt()函数后,不会阻塞,当次的invoke调用会正常结束,并将一个包含中断信息的结果返回给调用方,并执行后续的代码,等重新调用graph.invoke(resume_command, config)时,会从调用interrupt()函数的入口处重新执行(注意:如果函数的interrupt调用之前有一些接口、db访问或其他业务逻辑,则会被重复调用),且执行到interrupt()处返回的值即是用户输入的值(Command(resume=human_decision)中指的的值),具体流程如下:

2.9 记忆

记忆是智能体运行中记住先前交互信息的组件,是能够连贯对话的核心能力,LangGraph中提供了短期记忆和长期记忆。

1、短期记忆:存储当前对话上下文的信息,作用于单次会话或线程,通过thread_id(会话id)区分,通过图状态(State)和检查点(Checkpoint)实现。

# 1. 初始化一个内存检查点 checkpointer = InMemorySaver() # 2. 在编译图时传入检查点 graph = builder.compile(checkpointer=checkpointer) # 3. 调用时通过 thread_id 指定会话线程 config = {"configurable": {"thread_id": "thread_123"}} result = graph.invoke({"messages": [{"role": "user", "content": "你好"}]}, config=config)

2、长期记忆:长期记忆用于存储那些需要在不同会话间保留的信息。它通过 存储库(Store) 接口实现,类似于一个键值数据库,并支持基于向量嵌入的语义检索。与线程范围的短期记忆不同,长期记忆保存在自定义的“命名空间”中。

def write_node(state: dict) -> dict: # 获取全局存储实例 store = get_store() # 存储数据到指定命名空间 store.put(namespace, "user_123", {"name": "张三", "age": "20"}) return {} def read_node(state: dict) -> dict: # 获取全局存储实例 store = get_store() # 根据键获取指定用户数据 user_info = store.get(namespace, "user_123") print(user_info) # 在命名空间中搜索包含"张三"的数据 # query: 搜索关键词 # limit: 返回结果的最大数量限制 user_info = store.search(namespace, query="张三", limit=10) print(user_info) return {} # 初始化一个内存存储 store = InMemoryStore() # 定义命名空间,命名空间元组,用于数据分类和隔离 namespace = ("users", "profile") # 创建图 graph = StateGraph(dict) graph.add_node("write_node", write_node) graph.add_node("read_node", read_node) graph.add_edge(START, "write_node") graph.add_edge("write_node", "read_node") graph.add_edge("read_node", END) # 编译图,并指定存储 app = graph.compile(store=store) app.invoke({})

2.10 子图

在LangGraph中允许将一个完整的图作为另一个图的节点,适用于将复杂的任务拆解为多个专业智能体协同完成,每个子图都可以独立开发、测试并且可以复用。每个子图都可以拥有自己的私有数据,也可以与父图共享数据。

# 定义父图状态 class ParentState(TypedDict): parent_messages: list # 与子图共享数据 # 定义子图状态 class SubgraphState(TypedDict): parent_messages: list # 与父图共享的数据 sub_message: str # 子图私有数据 # 创建子图,添加node、edge等 sub_builder = StateGraph(SubgraphState) sub_builder.add_node("sub_node", subgraph_node) sub_builder.add_edge(START, "sub_node") compiled_subgraph = sub_builder.compile() # 创建父图 builder = StateGraph(ParentState) # 添加子图添加为父图的节点 builder.add_node("subgraph_node", compiled_subgraph) # 将子图连接起来 builder.add_edge("parent_node", "subgraph_node") # 编译父图并执行 parent_graph = builder.compile() parent_graph.invoke({"messages": ["init message"]})

这里共享数据指的是如果父图状态与子图状态定义名一样,则状态是共享的 。

如果当父子图状态结构不同时,需要在父图中创建一个专门的节点函数,手动调用图并处理状态数据。

# 在父图中创建代理节点处理状态转换 def call_subgraph(state: ParentState): # 将父图状态转换为子图的输入 subgraph_input = {"analysis_input": state["user_query"]} # 调用子图 subgraph_response = compiled_subgraph.invoke(subgraph_input) # 将子图的输出映射回父图状态 return {"final_answer": subgraph_response["analysis_result"]} builder = StateGraph(ParentState) # 父图中添加的是代理节点,而不是直接添加子图 builder.add_node("call_subgraph_node", call_subgraph) builder.add_edge(START, "call_subgraph_node") parent_graph = builder.compile()
2.11 集成MCP

模型上下文协议(MCP)是一个开放协议,它标准化了应用程序如何向大模型提供工具和上下文。LangGraph中Agent可以通过 langchain-mcp-adapters 库使用在 MCP 服务器上定义的工具。

# 安装 pip install langchain-mcp-adapters

1、自定义MCP工具

# 创建名为"MCP_Tools"的MCP服务器 mcp = FastMCP("MCP_Tools") @mcp.tool() def get_weather(location: str) -> str: """获取指定位置的天气信息""" return "晴天" @mcp.tool() def get_time() -> str: """获取当前时间""" return datetime.now().strftime('%Y-%m-%d %H:%M:%S') @mcp.tool() def add(a: int, b: int) -> int: """对两个整数相加""" return a + b @mcp.tool() def multiply(a: int, b: int) -> int: """对两个整数相乘""" return a * b @mcp.tool() def subtract(a: int, b: int) -> int: """对两个整数相减""" return a - b if __name__ == "__main__": # 使用HTTP协议传输 mcp.run(transport="streamable-http")

2、创建ReAct类型的Agent

async def get_agent(): # 初始化MCP客户端,可以连接多个服务器 client = MultiServerMCPClient( { "weather": { "url": "http://localhost:8000/mcp", "transport": "streamable_http", } } ) # 获取所有可用的工具 tools = await client.get_tools() print(f"已加载工具: {[tool.name for tool in tools]}") # 初始化聊天模型 model = ChatOpenAI( model_name=model_name, base_url=base_url, api_key=api_key ) # 创建React智能体 return create_react_agent(model, tools)

3、构建测试用例

async def test_agent(): # 获取智能体 agent = await get_agent() # 测试用例 test_cases = [ "计算 (15 + 7) × 3 等于多少?", "先计算 20 减 8,然后乘以 2 是多少?", "现在几点了?深圳的天气如何?" ] for i, question in enumerate(test_cases, 1): print(f"\n{'=' * 50}") print(f"测试 {i}: {question}") print(f"{'=' * 50}") # 调用智能体 response = await agent.ainvoke( {"messages": [HumanMessage(content=question)]} ) # 获取最后一条消息(智能体的回复) last_message = response["messages"][-1] print(f"智能体回复: {last_message.content}") if __name__ == "__main__": asyncio.run(test_agent())

运行结果:

2.12 运行时上下文

创建图时,可以指定运行时上下文,将上下文信息(不属于图状态的信息)传递给节点,以便节点中使用,例如模型名称或数据库连接等。

@dataclass class ContextSchema: # 定义上下文schema llm_provider: str = "openai" def node_a(state: State, runtime: Runtime[ContextSchema]): # 获取上下文信息 llm = get_llm(runtime.context.llm_provider) return state graph = StateGraph(State, context_schema=ContextSchema) # 执行时指定上下文信息 graph.invoke(inputs, context={"llm_provider": "DeepSeek-R1-Online-0120"})

2.13 递归限制

递归限制指的是图在单次执行过程中的最大次数,由 recursion_limit 参数控制,默认值为25步,一旦超过限制,会抛出 GraphRecursionError错误,用于防止工作流陷入死循环,确保系统的稳定性和可预测性。

try: result = graph.invoke( {"input": "开始执行"}, config={"recursion_limit": 50} # 设置递归限制为50次 ) except GraphRecursionError: print("执行步数超过限制,抛出异常") # 异常处理...

3、Multi-Agent架构

3.1 多智能体架构概述

对于普通的业务系统,随着需求的迭代,系统的复杂度会变得越来越高,使得维护性和扩展性变得越来越高,经常需要花费大量是时间去定位问题,因此在项目初始阶段架构选择很重要。单智能体应用也是如此,比如:

  1. 智能体有太多工具可供使用,导致在决定下一步调用哪个工具时做出错误的决定
  2. 上下文变得过于复杂,单个智能体难以跟踪
  3. 系统中需要多个专业领域的智能体协同工作

为了解决这些问题,可以将应用程序分解为多个更小、独立的智能体,并将它们组合成一个多智能体系统。使用多智能体的好处是:

  1. 模块化:独立的智能体使得开发、测试和维护智能体系统更加容易。
  2. 专业化:可以创建专注于特定领域的专家智能体,这有助于提高整个系统的性能。
  3. 可控性:可以明确控制智能体之间的通信方式(而不是依赖于函数调用)。

多智能体架构:

在多智能体系统中,有几种常见的连接智能体的方式:

  1. Network(网络):每个智能体都可以与其他任何智能体进行通信。任何智能体都可以决定下一步调用哪个其他智能体。
  2. Supervisor(主管):包含一个主管智能体,每个智能体都与一个主管智能体进行通信。主管智能体决定下一步应该调用哪个智能体。
  3. Supervisor as tools(主管as工具调用):主管架构的一种特殊情况。单个智能体可以被表示为工具。主管智能体使用一个支持工具调用的 LLM 来决定调用哪个智能体工具,以及传递给这些智能体的参数。
  4. Hierarchical(层级式):包含多层的Supervisor架构,每一层都有自己的主管,类似于公司的组织架构(GM-总监-组长-员工)
  5. Custom(自定义):使用LangGraph提供的灵活的图结构和条件边,可以自定义各种执行流,比较灵活,使用的也最多。
3.2 Agent之间通信和状态管理

在构建多智能体应用时,需要考虑智能体与智能体之间如何进行交互,以及数据应该如何共享。

1、通信模式:常见的两种通讯模式是通过移交(handoffs)和工具调用

  • 移交:一个智能体将其执行上下文和执行权传递给另一个智能体。
  • 工具调用:一个智能体(如主管)将另一个智能体作为工具进行调用。

移交更适用于自主协作的场景,而工具调用则提供了更明确的层级控制和接口约束。

2、消息传递:Agent与Agent之间应该传递所有的消息还是部分消息,需要根据具体的业务场景权衡。

  • 共享完整推理数据:智能体将其所有中间步骤(如链式思考、工具调用)写入共享通道。相当于提供了一个共享区,用于其他智能体理解其推理过程,可以提升系统的整体协作与推理能力。但是这种方式的缺点是会导致状态空间快速膨胀,给上下文窗口和内存管理带来挑战。
  • 仅共享最终结果:智能体在私有空间内完成其计算,仅将最终结果写入到共享区。它能有效控制状态的复杂度,实现此策略需要为每个智能体定义独立的状态模式。
3.3 supervisor(主管)

每个子智能体由一个中央主管智能体协调。主管控制所有的通信流和任务委派,根据当前上下文和任务需求决定调用哪个智能体。

Supervisor 架构模仿了企业中“项目经理”的角色。它采用经典的“管理者-工作者”结构,由一个中心的主管代理(Supervisor)负责接收用户任务,并将其分解、委派给各个专业的工作者代理(Worker Agents),并最终整合结果。

LangGraph提供了专门的Supervisor Python库:

pip install langgraph-supervisor

def book_hotel(hotel_name: str): """预订酒店""" print(f"✅ 成功预订了 {hotel_name} 的住宿") return f"成功预订了 {hotel_name} 的住宿。" def book_flight(from_airport: str, to_airport: str): """预订航班""" print(f"✅ 成功预订了从 {from_airport} 到 {to_airport} 的航班") return f"成功预订了从 {from_airport} 到 {to_airport} 的航班。" flight_assistant = create_react_agent( model=model, tools=[book_flight], prompt=( "你是专业的航班预订助手,专注于帮助用户预订机票。\n" "工作流程:\n" "1. 从用户需求中提取出发地和目的地信息\n" "2. 调用book_flight工具完成预订\n" "3. 收到预订成功的确认后,向主管汇报结果并结束\n" "注意:每次只处理一个预订请求,完成后立即结束,不要重复调用工具。" ), name="flight_assistant" ) hotel_assistant = create_react_agent( model=model, tools=[book_hotel], prompt=( "你是专业的酒店预订助手,专注于帮助用户预订酒店。\n" "工作流程:\n" "1. 从用户需求中提取酒店信息(如果未指定,选择经济型酒店)\n" "2. 调用book_hotel工具完成预订\n" "3. 收到预订成功的确认后,向主管汇报结果并结束\n" "注意:每次只处理一个预订请求,完成后立即结束,不要重复调用工具。" ), name="hotel_assistant" ) supervisor = create_supervisor( agents=[flight_assistant, hotel_assistant], model=model, prompt=( "你是一个智能任务调度主管,负责协调航班预订助手(flight_assistant)和酒店预订助手(hotel_assistant)。\n\n" "工作流程:\n" "1. 分析用户需求,确定需要哪些服务(航班、酒店或两者)\n" "2. 如果需要预订航班,调用flight_assistant一次\n" "3. 如果需要预订酒店,调用hotel_assistant一次\n" "4. 收到助手的预订确认后,记录结果\n" "5. 当所有任务都完成后,向用户汇总所有预订结果,然后立即结束\n\n" "关键规则:\n" "- 每个助手只能调用一次,不要重复调用\n" "- 看到'成功预订'的消息后,该任务就已完成\n" "- 所有任务完成后,必须直接结束,不要再调用任何助手\n" "- 如果已经看到航班和酒店的预订确认,立即汇总并结束" ) ).compile() for chunk in supervisor.stream( { "messages": [ { "role": "user", "content": "帮我预定一个北京到深圳的机票,并且预定一个酒店" } ] } ): print(chunk) print("\n")

supervisor支持可以将每个工作Agent的全部消息或最后一条消息添加到整个消息列表中

# 添加所有消息 workflow = create_supervisor( agents=[agent1, agent2], output_mode="full_history" ) # 添加最后一条消息 workflow = create_supervisor( agents=[agent1, agent2], output_mode="last_message" )

每一个主管Agent也可以是一个工作Agent,由一个更顶层的主管Agent管理:

research_team = create_supervisor( [research_agent, math_agent], model=model, supervisor_name="research_supervisor" ).compile(name="research_team") writing_team = create_supervisor( [writing_agent, publishing_agent], model=model, supervisor_name="writing_supervisor" ).compile(name="writing_team") top_level_supervisor = create_supervisor( [research_team, writing_team], model=model, supervisor_name="top_level_supervisor" ).compile(name="top_level_supervisor")

supervisor添加长期记忆和短期记忆:

# 短期记忆 checkpointer = InMemorySaver() # 长期记忆 store = InMemoryStore() swarm = create_supervisor( agents=[flight_assistant, hotel_assistant], model=model, ).compile(checkpointer=checkpointer, store=store)
3.4 swarm(群组)

智能体根据各自的专长动态地将控制权移交给其他智能体。Swarm 架构则更像一个开放的“专家社区”。它没有中心指挥,每个专业智能体都具备自主判断能力,可以根据当前任务上下文,决定是否以及将控制权“移交”给另一个智能体,形成一种自然的协作流水线。

安装Swarm库:Swarm库是一种多智能体架构的Python库

pip install langgraph-swarm

def book_hotel(hotel_name: str): """预订酒店""" print(f"✅ 成功预订了 {hotel_name} 的住宿") return f"成功预订了 {hotel_name} 的住宿。" def book_flight(from_airport: str, to_airport: str): """预订航班""" print(f"✅ 成功预订了从 {from_airport} 到 {to_airport} 的航班") return f"成功预订了从 {from_airport} 到 {to_airport} 的航班。" transfer_to_hotel_assistant = create_handoff_tool( agent_name="hotel_assistant", description="将用户转接给酒店预订助手。当用户需要预订酒店时使用此工具。", ) transfer_to_flight_assistant = create_handoff_tool( agent_name="flight_assistant", description="将用户转接给航班预订助手。当用户需要预订航班时使用此工具。", ) flight_assistant = create_react_agent( model=flight_assistant_model, tools=[book_flight, transfer_to_hotel_assistant], prompt=( "你是一个航班预订助手,负责帮助用户预订航班。" "当用户需要预订航班时,使用 book_flight 工具完成预订。" "如果用户还需要预订酒店,完成航班预订后,必须使用 transfer_to_hotel_assistant 工具将用户转接给酒店预订助手。" "重要:不要直接结束对话,确保所有用户需求都得到处理。" ), name="flight_assistant" ) hotel_assistant = create_react_agent( model=hotel_assistant_model, tools=[book_hotel, transfer_to_flight_assistant], prompt=( "你是一个酒店预订助手,负责帮助用户预订酒店。" "当用户需要预订酒店时,使用 book_hotel 工具完成预订。" "如果用户还需要预订航班,完成酒店预订后,必须使用 transfer_to_flight_assistant 工具将用户转接给航班预订助手。" "完成所有预订后,向用户确认所有任务已完成。" ), name="hotel_assistant" ) swarm = create_swarm( agents=[flight_assistant, hotel_assistant], default_active_agent="flight_assistant" ).compile() for chunk in swarm.stream( { "messages": [ HumanMessage(content="帮我预订从北京到上海的航班,并预订如家酒店") ] } ): print(chunk) print("\n")

swarm支持添加长期记忆和短期记忆。

# 短期记忆 checkpointer = InMemorySaver() # 长期记忆 store = InMemoryStore() swarm = create_swarm( agents=[flight_assistant, hotel_assistant], default_active_agent="flight_assistant" ).compile(checkpointer=checkpointer, store=store)

Supervisor 和 Swarm 代表了两种截然不同但同样强大的协作思想。Supervisor 通过集中控制带来可预测性和可靠性,而 Swarm 通过去中心化设计带来灵活性和韧性。在实际应用中,架构选择没有绝对的优劣,关键在于与业务场景的深度契合。甚至,在复杂的系统中,可以混合使用两种模式,例如核心流程用 Supervisor 严格管控,非核心探索环节用 Swarm 激发灵活性。

3.5 handoffs(交接)

handoffs 指的是一个智能体将控制权交接给另一个智能体,上述的Supervisor 和 Swarm都是使用handoffs来交接执行权的。handoffs需要包含两个最基本的要素:

  1. 目的地:下一个智能体
  2. State:传递给下一个智能体的信息

Supervisor 和 Swarm都默认使用了create_handoff_tool移交工具,我们也可以自己实现交接函数

def create_task_description_handoff_tool(*, agent_name: str, description: str | None = None): name = f"transfer_to_{agent_name}" description = description or f"移交给 {agent_name}" @tool(name, description=description) def handoff_tool( task_description: Annotated[str, "描述下一个Agent应该做什么,包括所有相关信息。"], state: Annotated[MessagesState, InjectedState], ) -> Command: task_description_message = {"role": "user", "content": task_description} agent_input = {**state, "messages": [task_description_message]} return Command( goto=[Send(agent_name, agent_input)], graph=Command.PARENT, ) return handoff_tool # 自定义移交工具 transfer_to_hotel_assistant = create_task_description_handoff_tool( agent_name="hotel_assistant", description="将执行权移交给酒店预订助手", ) transfer_to_flight_assistant = create_task_description_handoff_tool( agent_name="flight_assistant", description="将执行权移交给航班预订助手", ) @tool("book_hotel") def book_hotel(hotel_name: str): """预订酒店 - 当用户需要预订酒店时必须调用此工具""" print(f"✅ 成功预订了 {hotel_name} 的住宿") return f"成功预订了 {hotel_name} 的住宿。" @tool("book_flight") def book_flight(from_airport: str, to_airport: str): """预订航班""" print(f"✅ 成功预订了从 {from_airport} 到 {to_airport} 的航班") return f"成功预订了从 {from_airport} 到 {to_airport} 的航班。" # 定义智能体 flight_assistant = create_react_agent( model=model, tools=[book_flight, transfer_to_hotel_assistant], prompt="你是一个航班预订助手,专门负责帮助用户预订航班。", name="flight_assistant" ) hotel_assistant = create_react_agent( model=model, tools=[book_hotel, transfer_to_flight_assistant], prompt="你是酒店预订助手,专门负责帮助用户预订酒店。", name="hotel_assistant" ) # 定义多智能体图 multi_agent_graph = ( StateGraph(MessagesState) .add_node(flight_assistant) .add_node(hotel_assistant) .add_edge(START, "flight_assistant") .compile() ) multi_agent_graph.invoke( { "messages": [ HumanMessage(content="帮我预订从北京到上海的航班,并预订如家酒店") ] } )

上述例子(supervisor、swarm、handoffs)在实际测试中运行并不稳定,有时并非按照预期执行相应的工具,或者循环执行工具。可以通过更换模型或者修改提示词尝试解决。

4、JAVA版本介绍(LangChain4J和LangGraph4J)

LangGraph除了python 和 js版本外,还提供了Java版本,如果需要开发复杂的业务系统或者团队使用的技术栈为Java,则LangGraph4j是一个不错的选择。我们团队的项目使用的是Java技术栈,所以这里顺便介绍一下使用LangChain4J+LangGraph4J快速的将AI大模型引入到Java项目中。

由于Spring AI有Spring Boot 3.x + JDK 21的限制,而LangGraph4j是一个独立的库,不依赖Sping Boot,而且使用JDK17,引入成本更低。

本章主要讲LangGraph4j如何使用,具体相关的概念与Python的一样,可参考上文。

4.1 环境准备

Maven依赖:

<!-- LangChain4j --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j</artifactId> <version>1.6.0</version> </dependency> <!-- LangChain4j OpenAI --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-open-ai</artifactId> <version>1.2.0</version> </dependency> <!-- LangGraph4J --> <dependency> <groupId>org.bsc.langgraph4j</groupId> <artifactId>langgraph4j-core</artifactId> <version>1.5.2</version> </dependency>
4.2 使用LangChain4J集成大模型

1、调用大模型

public static void main(String[] args) { // 构建聊天模型实例 ChatModel chatModel = OpenAiChatModel.builder() .baseUrl(BASE_URL) // 设置 API 基础地址 .apiKey(API_KEY) // 设置 API 密钥 .modelName("hunyuan-turbo") // 指定模型名称 .timeout(Duration.ofSeconds(60)) // 设置请求超时时间为 60 秒 .logRequests(true) // 开启请求日志,便于调试 .logResponses(true) // 开启响应日志,便于调试 .maxRetries(3) // 设置最大重试次数为 3 次 .temperature(0.8) // 设置温度参数(0.0-1.0),控制输出的随机性 .returnThinking(true) // 返回模型的思考过程(针对深思考模型) .build(); // 创建系统消息,定义 AI 助手的角色和行为 SystemMessage systemMessage = SystemMessage.from("你是一个LangChain和LangGraph专家,用于解答开发者的问题。"); // 创建用户消息,包含具体的问题 UserMessage userMessage = UserMessage.from("介绍一下LangGraph"); // 模型调用 ChatResponse chatResponse = chatModel.chat(systemMessage, userMessage); // 从响应中提取 AI 消息 AiMessage aiMessage = chatResponse.aiMessage(); // 输出模型的思考过程(如果模型支持并返回) System.out.println(aiMessage.thinking()); // 输出模型的最终回答 System.out.println(aiMessage.text()); }

2、提示词模版

# 创建提示词模版 PromptTemplate promptTemplate = PromptTemplate.from("你是一个{{domain}}领域的专家,用于解答关于{{question}}的开发者问题。"); # 填充参数 String prompt = promptTemplate.apply(Map.of( "domain", "LangChain和LangGraph", "question", "LangGraph" )).text(); chatModel.chat(prompt);

3、AI Service

AI Service 是 LangChain4j 框架中一个高级的、声明式的 API,能够像定义普通 Java Service 接口一样来定义 AI 功能,从而极大地简化与大模型的集成。

// 定义一个反洗钱助手接口 interface RiskAssistant { @SystemMessage("你是一个专注于反洗钱业务的专家助手") @UserMessage("请回答用户关于反洗钱的提问,问题:{{question}}") String answer(@V("question") String question); } public static void main(String[] args) { // 构建聊天模型实例 ChatModel chatModel = OpenAiChatModel.builder().baseUrl(BASE_URL) .apiKey(API_KEY) .modelName("hunyuan-turbo") .build(); // 通过 AiServices 创建实例 RiskAssistant riskAssistant = AiServices.create(RiskAssistant.class, chatModel); String answer = riskAssistant.answer("什么是EDD?"); System.out.println(answer); }

4、添加记忆

RiskAssistant riskAssistant = AiServices.builder(RiskAssistant.class) .chatModel(chatModel) // 添加记忆能力,保存用户最近 10 条对话,也可以自定义记忆能力 .chatMemory(MessageWindowChatMemory.withMaxMessages(10)) .build();

5、使用工具

public static class StockTools { @Tool("查询公司股价") public String getStockPrice(@P("公司名称") String company) { return "1000"; } } public static void main(String[] args) { StockAssistant assistant = AiServices.builder(StockAssistant.class) .chatModel(chatModel) // 添加工具 .tools(new StockTools()) .build(); }

6、Guardrail(防护机制)

通过预设的规则来验证和过滤模型的输入与输出,确保交互过程的安全、可靠和合规。分为输入Guardrail 和 输出Guardrail

  1. 输入 Guardrail:在用户输入发送给LLM之前执行,用于验证用户请求,防止恶意或无效输入,例如:敏感词过滤、提示注入攻击防护、输入格式验证等
  2. 输出 Guardrail:在LLM生成响应之后,返回给用户之前执行,用于检查、修正模型输出,确保其安全、合规、格式正确,例如:内容安全审核(如仇恨言论、暴力色情)、幻觉检测、输出格式标准化(如JSON校验)
// 输出 Guardrail public static class SensitiveInputGuardrail implements InputGuardrail { private static final Set<String> SENSITIVE_WORDS = Set.of("作弊", "开挂", "攻击"); @Override public InputGuardrailResult validate(UserMessage userMessage) { String userInput = userMessage.singleText(); for (String word : SENSITIVE_WORDS) { if (userInput.contains(word)) { // 发现敏感词,立即终止请求 return fatal("您的请求包含违规内容,已被拦截。"); } } // 输入合法,放行 return InputGuardrailResult.success(); } } // 输出 Guardrail public static class ContentSafetyOutputGuardrail implements OutputGuardrail { private static final Set<String> SENSITIVE_WORDS = Set.of("作弊", "开挂", "攻击"); @Override public OutputGuardrailResult validate(AiMessage aiMessage) { String aiResponse = aiMessage.text(); // 判断输出内容是否合法,自定义函数 if (isSensitiveContent(aiResponse)) { // 策略1:直接拦截并报错 // return failure("输出内容不合规"); // 策略2:要求模型重试,给予一次修正机会 return retry("请以更安全、中立的方式重新生成回答"); } return OutputGuardrailResult.success(); } } // 使用注解将Guardrail应用于整个AI服务 @InputGuardrails(SensitiveInputGuardrail.class) @OutputGuardrails(ContentSafetyOutputGuardrail.class) public interface MyAIService { String chat(String userMessage); } public static void main(String[] args) { ChatModel chatModel = OpenAiChatModel.builder() .baseUrl(BASE_URL) .apiKey(API_KEY) .modelName("hunyuan-turbo") .build(); MyAIService myAI = AiServices.builder(MyAIService.class) .chatModel(chatModel) // 使用注解或构造器的方式指定Guardrail // .inputGuardrails(new SensitiveInputGuardrail()) // .outputGuardrails(new ContentSafetyOutputGuardrail()) .build(); }

7、多模态

ChatModel chatModel = OpenAiChatModel.builder() .baseUrl(BASE_URL) .apiKey(API_KEY) .modelName("hunyuan-ocr") // 设置模型名称,需支持多模态 .build(); byte[] imageBytes = Files.readAllBytes(Paths.get(IMAGE_PATH)); String base64ImageData = Base64.getEncoder().encodeToString(imageBytes); // 创建包含文本和图片内容的用户消息 // 使用 TextContent 和 ImageContent 组合构建多模态消息 UserMessage userMessage = UserMessage.from( TextContent.from("描述图片的内容"), ImageContent.from(base64ImageData, "image/png")); ChatResponse chat = chatModel.chat(userMessage);
4.3 使用LangGraph4J构建工作流

1、创建图(Node、Edge、State)

public static void main(String[] args) throws GraphStateException { StateGraph<AgentState> graph = new StateGraph<>(AgentState::new); // 添加节点,node_async表示同步执行 graph.addNode("input_node", AsyncNodeAction.node_async(state -> { System.out.println("[input_node] 接收到状态: " + state.data()); // 返回要更新的数据,默认规则与上一个节点的数据合并 return Map.of("input_node", "input_node"); })); graph.addNode("process_node", AsyncNodeAction.node_async(state -> { System.out.println("[process_node] 接收到状态: " + state.data()); return Map.of("process_node", "process_node"); })); // 添加边, START -> input_node -> process_node -> END graph.addEdge(StateGraph.START, "input_node"); graph.addEdge("input_node", "process_node"); graph.addEdge("process_node", StateGraph.END); // 编译图 CompiledGraph<AgentState> compile = graph.compile(); // 初始状态 Map<String, Object> initialData = new HashMap<>(); initialData.put("init_data", "init_data"); // 执行图 Optional<AgentState> invoke = compile.invoke(initialData); invoke.ifPresent(state -> System.out.println("最终状态: " + state.data())); }

2、状态合并策略(Channels,类似与python的Reducer)

public static void main(String[] args) throws GraphStateException { // 定义Channels,指定每个状态字段的合并策略 Map<String, Channel<?>> channels = new LinkedHashMap<>(); // 集合追加 channels.put("messages", Channels.appender(ArrayList::new)); // 返回两数之和 channels.put("counter", Channels.base(Integer::sum, () -> 0)); // 返回最大值 channels.put("max_score", Channels.base(Math::max, () -> 0)); // 创建图,并指定状态字段合并策略 StateGraph<AgentState> graph = new StateGraph<>(channels, AgentState::new); // 添加节点 graph.addNode("node1", AsyncNodeAction.node_async(state -> { System.out.println("node1 -> " + state); return Map.of("messages", "node1", "counter", 3, "max_score", 85, "current_step", "node2"); })); graph.addNode("node2", AsyncNodeAction.node_async(state -> { System.out.println("node2 -> " + state); return Map.of("messages", "node2", "counter", 5, "max_score", 72, "current_step", "node2"); })); graph.addNode("node3", AsyncNodeAction.node_async(state -> { System.out.println("node3 -> " + state); return Map.of("messages", "node3", "counter", 2, "max_score", 95, "current_step", "node3"); })); // 添加边 graph.addEdge(StateGraph.START, "node1"); graph.addEdge("node1", "node2"); graph.addEdge("node2", "node3"); graph.addEdge("node3", StateGraph.END); // 编译并执行 CompiledGraph<AgentState> compile = graph.compile(); compile.invoke(new HashMap<>()).ifPresent(state -> { System.out.println("final state: " + state); }); }

3、条件边

public static void main(String[] args) throws GraphStateException { StateGraph<AgentState> graph = new StateGraph<>(AgentState::new); // 添加节点、其他边... // 定义条件映射关系,key为条件,value为目标节点名 Map<String, String> mappings = new HashMap<>(); mappings.put("pass", "pass_handler"); mappings.put("fail", "fail_handler"); graph.addConditionalEdges("node", agentState -> { // 自定义路由条件... // 通过State中获取条件,然后判断需要路由的下一个节点 int score = (Integer) agentState.value("score").orElse(0); return CompletableFuture.completedFuture(score >= 90 ? "pass" : "fail"); }, mappings); }

4、检查点(Checkpoint)

public static void main(String[] args) throws GraphStateException { // 定义检查点保存器 MemorySaver checkpoint = new MemorySaver(); CompileConfig config = CompileConfig.builder() .checkpointSaver(checkpoint) .build(); StateGraph<AgentState> graph = new StateGraph<>( AgentState::new); // 添加节点、边... // 编译图时指定检查点保存器 CompiledGraph<AgentState> compile = graph.compile(config); compile.invoke(new HashMap<>()); }

5、人机协作(Human-in-the-Loop)

public static void main(String[] args) throws Exception { MemorySaver checkpointer = new MemorySaver(); StateGraph<AgentState> graph = new StateGraph<>(AgentState::new); // 节点1: 接收用户问题 graph.addNode("receive_question", AsyncNodeAction.node_async(state -> { // 业务逻辑... return Map.of("status", "received", "timestamp", System.currentTimeMillis()); })); // 节点2: AI尝试回答 graph.addNode("ai_answer", AsyncNodeAction.node_async(state -> { // 业务逻辑... return Map.of("status", "ai_answered", "ai_response", "转人工", "confidence", 40); })); // 节点3: 人工介入 graph.addNode("human_agent", AsyncNodeAction.node_async(state -> { // 业务逻辑... return Map.of("human_response", "人工回复...", "handled_by", "human", "status", "human_handled"); })); // 节点4: 完成并汇总 graph.addNode("complete", AsyncNodeAction.node_async(state -> { // 业务逻辑... return Map.of("status", "completed", "completion_time", System.currentTimeMillis()); })); // 添加边 graph.addEdge(StateGraph.START, "receive_question"); graph.addEdge("receive_question", "ai_answer"); // 条件边:根据AI置信度决定是否需要人工 graph.addConditionalEdges( "ai_answer", state -> CompletableFuture.completedFuture( (Integer) state.value("confidence").orElse(0) < 60 ? "human" : "complete" ), Map.of("human", "human_agent", "complete", "complete") ); graph.addEdge("human_agent", "complete"); graph.addEdge("complete", StateGraph.END); // 配置:在human_agent执行前前中断 CompileConfig config = CompileConfig.builder() .checkpointSaver(checkpointer) .interruptBefore("human_agent") .build(); CompiledGraph<AgentState> compile = graph.compile(config); RunnableConfig runnableConfig = RunnableConfig.builder().threadId("thread1").build(); // 首次执行,执行human_agent前会中断 Optional<AgentState> invoke = compile.invoke(Map.of("user_question", "如何退款?"), runnableConfig); invoke.ifPresent(state -> System.out.println("final state: " + state)); // 模拟用户输入.... Map<String, Object> humanInput = new HashMap<>(); humanInput.put("human_response", "人工回复"); humanInput.put("agent_name", "human_agent"); RunnableConfig updatedConfig2 = compile.updateState(runnableConfig, humanInput); // 用户输入后再次执行,从human_agent开始执行 Optional<AgentState> invoke1 = compile.invoke(null, updatedConfig2); invoke1.ifPresent(state -> System.out.println("final state: " + state)); }

除了上述例子,LangGraph4j还提供了一个标准AgentExecutor 类(也称为 ReACT Agent)用于支持人工审批工作流程。可参考: https://bsorrentino.github.io/bsorrentino/ai/2025/07/13/LangGraph4j-Agent-with-approval.html

LangChain4J 和 LangGraph4J的基本使用就介绍到这里,其核心思想与Python一样,只是换了一种调用方式而已,实际工作或学习中可以根据场景或个人爱好选择。

至此,关于LangGraph的介绍就全部结束了,LangGraph作为多智能体应用的编排框架,通过图结构、灵活的状态管理和控制流,为构建复杂的多智能体应用提供了强大基础设施。它作为LangChian生态的一部分,可以直接利用 LangChain 庞大的工具库和模型集成,无需从零开始编写所有功能,可以轻松调用各种现成的工具(如搜索引擎、数据库查询工具等)和模型,快速搭建起强大的多智能体应用。LangGraph除了Python版本还提供了JS和JAVA版本,实际开发中可以根据具体的应用场景选择合适的语言。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

适用人群

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/4 9:22:27

自定义encodeURIComponent

encodeURIComponent只对特殊字符进行编码&#xff08;如空格、&、、?、%等&#xff09;这里注意&#xff1a;encodeURIComponent不对字母和数字进行编码encodeURIComponent适用于URL参数传递&#xff0c;确保特殊字符不会破环URL结构如果我们希望对字母和数字也进行编码&a…

作者头像 李华
网站建设 2026/5/7 10:36:35

11、利用 Node.js 与 SQL Server 构建应用程序全解析

利用 Node.js 与 SQL Server 构建应用程序全解析 1. 环境搭建 要使用 Node.js 连接 SQL Server,首先需要安装 Tedious 驱动并准备好环境。按照微软文档(www.microsoft.com/sql-server/developer-get-started/node/windows/step/2.html)的说明,可以在 Visual Studio Code …

作者头像 李华
网站建设 2026/4/22 23:38:44

基于单片机的室内空气质量检测控制系统(有完整资料)

资料查找方式&#xff1a;特纳斯电子&#xff08;电子校园网&#xff09;&#xff1a;搜索下面编号即可编号&#xff1a;T4502309M设计简介&#xff1a;本设计是基于单片机的室内空气质量检测控制系统&#xff0c;主要实现以下功能&#xff1a;通过温湿度传感器检测温湿度 通过…

作者头像 李华
网站建设 2026/4/24 16:43:37

基于物联网的温室玫瑰种植系统(有完整资料)

资料查找方式&#xff1a;特纳斯电子&#xff08;电子校园网&#xff09;&#xff1a;搜索下面编号即可编号&#xff1a;T4512305M设计简介&#xff1a;本设计是基于STM32的温室玫瑰种植系统&#xff0c;主要实现以下功能&#xff1a;可通过氮磷钾传感器检测土壤温湿度、氮磷钾…

作者头像 李华