news 2026/4/21 23:25:11

构建 Cline 级智能体:LangChain 与 MCP Server 的深度集成实战

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
构建 Cline 级智能体:LangChain 与 MCP Server 的深度集成实战

本文档详细复盘了我们如何基于 LangChain 构建一个能够连接 Model Context Protocol (MCP) Server 的智能 Agent (GithubAgent)。我们的目标是复刻 Cline 等先进 IDE 插件的核心能力:自动工具发现自动规则注入以及智能工具调用

1. 架构概览:GithubAgent 的解剖

GithubAgent不仅仅是一个简单的 LLM 包装器,它是一个具备完整思考-行动-观察 (ReAct)循环的自治单元。

1.1 调用链路图

MCP Server (GitHub)Gemini ModelGithubAgent前端用户MCP Server (GitHub)Gemini ModelGithubAgent前端用户初始化阶段循环结束alt[发现 ToolCall][无 ToolCall]loop[ReAct Loop]"列出我的 repo"SSE Connect & HandshakeInitializeResult (含 Instructions)注入 System PromptListToolsTools List (含 Schema & Description)转换为 StructuredTool (Pydantic)Bind Tools对话历史 (Messages)AIMessage (含 ToolCall: get_repo_list)yield "[Thinking: Calling get_repo_list...]"CallTool(get_repo_list, args)ToolResult (Repo JSON)Append ToolMessage to Historyyield "Here are your repos..." (流式文本)

1.2 Agent 内部方法调用流 (Internal Flow)

为了更清晰地展示代码结构,我们将GithubAgent内部的方法调用关系绘制如下:

ReAct Loop

1. 初始化连接
2. 提取指令
3. 获取工具
4. 转换工具
5. 绑定模型
6. 进入循环

Stream

Decide

No

Yes

Result

Continue

_connect_and_execute

session.initialize()

_extract_instructions

_fetch_mcp_tools

_convert_mcp_tools

llm.bind_tools()

_agent_loop

LLM.astream()

Has Tool Calls?

Break Loop

_execute_tool_call

Append ToolMessage

2. 核心方法详解

代码:
https://github.com/jason-nvd11-org/askc-backend/blob/github-mcp-agent/src/agents/github_agent.py

为了实现上述架构,我们将GithubAgent拆分为五个单一职责的核心方法。

2.1_fetch_mcp_tools: 工具发现

代码职责:连接 MCP Server,拉取原始工具定义。

asyncdef_fetch_mcp_tools(self,session:ClientSession)->List[McpTool]:logger.info("Fetching tools from MCP...")result=awaitsession.list_tools()returnresult.tools

解释:这是实现“自动发现”的第一步。无论 Server 端增加了什么新工具,Agent 只要重启就能看到。

2.2_convert_mcp_tools: 智能适配器

代码职责:将 MCP 的 JSON Schema 转换为 LangChainStructuredTool
关键技术pydantic.create_model

def_convert_mcp_tools(self,mcp_tools:List[McpTool],session:ClientSession)->List[StructuredTool]:# ... 遍历 mcp_tools ...args_model=create_model(f"{tool.name}Schema",**fields)returnStructuredTool.from_function(...,args_schema=args_model)

解决的问题:这是解决“参数对齐”的关键。它确保 LLM 知道参数名是owner而不是username

2.3_extract_instructions: 规则注入

代码职责:从握手响应中提取 Server 端的instructions

def_extract_instructions(self,init_result:Any)->str:ifhasattr(init_result,'instructions')andinit_result.instructions:returnf"\n\n[Server Instructions]\n{init_result.instructions}"return""

解决的问题:Cline 能读懂 Server 的“潜规则”(如“别用浏览器”),靠的就是这一步。我们将这些规则强行注入到了 System Prompt 中。

2.4_agent_loop: 大脑回路

代码职责:维护 ReAct 循环,处理流式输出与工具调用的分流。

asyncdef_agent_loop(self,llm_with_tools,session,messages):whileTrue:# 1. 思考 (Think)asyncforchunkinllm_with_tools.astream(messages):# ... 累加 chunk ...ifchunk.content:yieldchunk# 实时输出文本# 2. 决策 (Decide)ifnotgetattr(final_chunk,'tool_calls',None):break# 没工具用,结束# 3. 行动 (Act)fortool_callinfinal_chunk.tool_calls:yieldAIMessageChunk(content=f"[Thinking: Calling{tool_call['name']}...]")tool_msg=awaitself._execute_tool_call(session,tool_call)messages.append(tool_msg)

2.5 流式输出机制 (Streaming Mechanism)

Agent 的流式能力不仅仅是简单地调用 LLM 的astream,它实现了一个混合流 (Hybrid Stream)

  1. 透传流 (Pass-through):
    当 LLM 生成普通文本时,Agent 作为中间管道,收到一个 chunk 就立刻yield一个 chunk。

    asyncforchunkinllm_with_tools.astream(messages):ifchunk.content:yieldchunk
  2. 合成流 (Synthesized):
    当 Agent 处于“思考”或“执行”状态时,LLM 是静默的。为了保持前端连接活跃并提供反馈,Agent 会手动构造AIMessageChunk并推送。

    yieldAIMessageChunk(content=f"[Thinking: Calling{tool_name}...]")
  3. 协议一致性:
    无论是 LLM 生成的,还是 Agent 伪造的,输出给前端的都是标准的BaseMessageChunk对象。这使得上层调用者(如ChatService)无需区分数据来源,统一处理。

3. 关键问题深度解析

Q1: Agent 如何像 Cline 一样发现工具?

A: 通过 MCP 协议的session.list_tools()
MCP 协议标准定义了tools/list接口。只要连接建立,Client 就可以询问 Server:“你有什么本事?” Server 会返回一份详细的清单(包含名称、描述、参数结构)。我们的 Agent 正是利用这个接口实现了动态发现。

Q2: Agent 如何获取 Instructions 并注入 Prompt?

A: 通过session.initialize()的返回值。
FastMCP 框架将instructions放在了初始化握手响应(InitializeResult)中。我们的_extract_instructions方法专门负责捕获这个字段,并将其追加到self.system_prompt后。这样,LLM 在每一次对话开始前,都会先“读”一遍这份说明书。

Q3: Agent 如何读懂 Tool 的注解?

A: 通过全链路透传description字段。
Server 代码里的 docstring -> MCP Protocol (description字段) ->session.list_tools()->GithubAgent->StructuredTool(description=...)-> LLM Prompt。
我们在代码中显式地传递了description=tool.description,确保 LLM 能看到工具的用途说明。

Q4: LLM 的 Tool Call 输出在哪里?

A: 藏在AIMessage.tool_calls属性里。
现代 LLM API(OpenAI/Gemini)将“内容”与“指令”分流了。

  • Content: 给用户看的文本。当调用工具时,这通常是空的。
  • Tool Calls: 给程序看的指令。LangChain 将其解析并存放在message.tool_calls列表里。
    我们在_agent_loop中通过检查if final_chunk.tool_calls:来捕捉 LLM 的意图。

Q5: 如何实现 “Thinking…” 流式反馈?

A: 手动 YieldAIMessageChunk
既然 Tool Call 阶段content是空的,前端默认看不到任何东西。
我们在检测到tool_calls后、执行工具前,手动构造了一个包含提示文本的消息块并yield出去:

yieldAIMessageChunk(content=f"\n[Thinking: Calling tool `{tool_name}`...]\n")``` 这模拟了类似 ChatGPT 的思考状态展示。## 4. 实战演示 (Sample Output)以下是运行 `GithubAgent` 时的真实日志输出(已脱敏),展示了完整的思考与执行过程: ```text INFO|src.agents.github_agent:_connect_and_execute:110-Connecting to GitHub MCP at https://.../sse...INFO|src.agents.github_agent:_connect_and_execute:116-MCP Session initialized.INFO|src.agents.github_agent:_extract_instructions:44-Loaded server instructions.INFO|src.agents.github_agent:_fetch_mcp_tools:33-Fetched2toolsfromMCP.INFO|src.tools.mcp_tool_converter:convert:13-Converting tool:get_repo_list,Description:Fetches alistof repositories...INFO|src.agents.github_agent:_agent_loop:99-AI requested1tool calls[Thinking:Calling tool `get_repo_list`...]INFO|src.agents.github_agent:_execute_tool_call:54-Executing tool:get_repo_listwithargs:{'limit':3,'owner':'nvd11'}INFO|src.agents.github_agent:_execute_tool_call:64-Tool result:[{"name":"mail-service",...}]Here are the first3repositoriesforuser nvd11:1.mail-service:https://github.com/nvd11/mail-service2.envoy-config:https://github.com/nvd11/envoy-config3.first-mcp:https://github.com/nvd11/first-mcp
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 6:05:56

mptools v8.0配置文件解析:系统学习与实践应用

深入理解 mptools v8.0 配置系统:从结构到实战的完整指南在现代工程实践中,自动化运维工具早已不再是“可有可无”的附加组件,而是支撑高效交付、稳定运行的核心基础设施。面对日益复杂的部署环境和多变的操作需求,如何通过一份配…

作者头像 李华
网站建设 2026/4/17 14:06:14

ResNet18应用案例:农业病虫害识别系统

ResNet18应用案例:农业病虫害识别系统 1. 引言:从通用物体识别到农业场景落地 在人工智能赋能千行百业的今天,深度学习模型正逐步从实验室走向田间地头。ResNet18作为经典的轻量级卷积神经网络,在ImageNet等大规模数据集上展现了…

作者头像 李华
网站建设 2026/4/18 11:53:03

有源蜂鸣器PWM调音控制:超详细版实现指南

用PWM玩转有源蜂鸣器:不只是“滴”一声那么简单你有没有遇到过这样的场景?按下设备按键,只听到千篇一律的“滴”声;报警触发时,声音单调得像老式电话忙音——毫无辨识度。在今天这个追求极致交互体验的时代&#xff0c…

作者头像 李华
网站建设 2026/4/19 0:39:43

RISC为何高效?以ARM为例核心要点

RISC为何高效?从ARM的设计哲学看现代处理器的能效革命你有没有想过,为什么你的手机可以连续播放十几个小时视频而不发烫,而一台高性能笔记本在跑大型软件时却风扇狂转、掌心滚烫?这背后的核心差异,并不完全在于电池大小…

作者头像 李华
网站建设 2026/4/17 12:48:45

ResNet18优化实战:模型量化压缩技巧

ResNet18优化实战:模型量化压缩技巧 1. 背景与挑战:通用物体识别中的效率瓶颈 在当前AI应用广泛落地的背景下,通用物体识别已成为智能设备、边缘计算和Web服务的核心能力之一。基于ImageNet预训练的ResNet-18模型因其结构简洁、精度适中、参…

作者头像 李华
网站建设 2026/4/17 14:22:26

ResNet18技术解析:残差块设计精要

ResNet18技术解析:残差块设计精要 1. 引言:通用物体识别中的ResNet-18 在现代计算机视觉系统中,通用物体识别是构建智能感知能力的核心任务之一。从自动驾驶中的环境理解到智能家居的场景感知,模型需要具备对上千类常见物体和复…

作者头像 李华