news 2026/5/6 12:53:44

Spring-AI 结合自定义 mcp server 实现飞书智能机器人

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Spring-AI 结合自定义 mcp server 实现飞书智能机器人

1. 简介

本文主要介绍基于 spring ai 自定义搭建 mcp 服务端和客户端,主要场景是:

基于本地的mcp服务让飞书机器人跟场景回答不同的问题

实现效果如下

最后附了源码链接.整体代码非常简单,容易上手。

2.概念

2.1 什么是 AI MCP?

MCP(Model Context Protocol)是一种 ​标准化协议​,用来解决一个长期痛点:

👉如何让 AI“安全、可控、标准化地”调用外部工具 / 系统能力?

它的核心目标不是“让 AI 更聪明”,而是:

  • AI 能调用真实系统
  • 同时避免 AI 乱编、乱连、乱访问
  • 并且工具接入方式统一

2.2 MCP 解决了什么问题?

1️⃣ 传统 Function Call 的问题

以 OpenAI Function Calling / Tool Calling 为例:

  • 工具定义写死在 Prompt 或代码里
  • 每个 AI 框架一套接口
  • 权限 / 生命周期 / 连接管理全靠业务自己写
  • 工具多了以后极难维护

👉 在真实系统里会变成:

  • Prompt 很长
  • Tool 定义重复
  • 不同 AI 模型不可复用

2️⃣ MCP 的解决思路

MCP 把 ​工具变成一个标准化的 Server​:

AI Model | | MCP 协议 | MCP Client ────── MCP Server ├─ 查数据库 ├─ 调内部系统 ├─ 查文件 ├─ 调 HTTP API

AI ​不直接接触工具实现​,只通过 MCP 协议:

  • 发现工具
  • 调用工具
  • 获取结构化结果

3. 工程结构

主要分为2个模块,mcp-servermcp-client, mcp-client里面通过java -jar的形式运行 mcp 服务端,在mcp-client最终结合 AI 以及飞书机器人的集成实现消息的回复.

4. 相关源码介绍

4.1 mcp 服务端

服务端非常简单,例如保留一个天气的服务,只需要在方法上加入org.springframework.ai.tool.annotation.Tool;注解即可

importio.kings1990.mcp.mcpserver.enums.WeatherType;importio.kings1990.mcp.mcpserver.record.WeatherRequest;importio.kings1990.mcp.mcpserver.record.WeatherResult;importlombok.extern.slf4j.Slf4j;importorg.springframework.ai.tool.annotation.Tool;importorg.springframework.ai.tool.annotation.ToolParam;importorg.springframework.stereotype.Service;@Service@Slf4jpublicclassWeatherService{@Tool(name="getWeather",description="查询指定城市的天气")publicWeatherResultgetWeather(@ToolParam(description="请求参数")WeatherRequestreq){log.info("MCP Tool getWeather called, city={}",req.city());returnnewWeatherResult(req.city(),WeatherType.SUNNY,"25°C","°C","mcp:getWeather");}}

4.2 mcp客户端

4.2.1让 AI 集成 ToolCallbacks

@ConfigurationpublicclassAiConfig{@BeanpublicChatClientchatClient(ChatClient.Builderbuilder,List<McpSyncClient>mcpSyncClients){returnbuilder.defaultSystem("你是一个AI助手,必须调用工具 kings-spring-ai-mcp-tools 下的方法,如果工具不可用,就明确说明无法调用工具,不要编造。").defaultToolCallbacks(SyncMcpToolCallbackProvider.builder().mcpClients(mcpSyncClients).build()).build();}}

4.2.2基于飞书机器人的长链接集成,实现消息的自动回复

importcn.hutool.core.thread.ThreadUtil;importcom.lark.oapi.event.EventDispatcher;importcom.lark.oapi.service.im.ImService;importcom.lark.oapi.service.im.v1.model.P2MessageReceiveV1;importcom.lark.oapi.ws.Client;importjakarta.annotation.Resource;importorg.springframework.beans.factory.DisposableBean;importorg.springframework.boot.CommandLineRunner;importorg.springframework.stereotype.Component;@ComponentpublicclassLarkWsListenerimplementsCommandLineRunner,DisposableBean{@ResourceprivateLarkBotServicebotService;@ResourceprivateClient.BuilderlarkWsBuilder;@Overridepublicvoidrun(String...args){//verificationToken和 encryptionKey 可选,用于验证和解密事件EventDispatcherhandler=EventDispatcher.newBuilder("","").onP2MessageReceiveV1(newImService.P2MessageReceiveV1Handler(){@Overridepublicvoidhandle(P2MessageReceiveV1event)throwsException{// 1) messageId 用于 replyStringmessageId=event.getEvent().getMessage().getMessageId();// 2) content 是 JSON 字符串,需要解析出文本StringcontentJson=event.getEvent().getMessage().getContent();System.err.println("收到消息: "+contentJson);StringuserText=LarkMsgParser.extractText(contentJson);ThreadUtil.execAsync(()->{botService.onUserMessage(messageId,userText);});}}).build();// 建议把 appId/appSecret 放配置文件ClientwsClient=larkWsBuilder.eventHandler(handler).build();wsClient.start();}@Overridepublicvoiddestroy()throwsException{}}

4.2.3 AI Api-Key 植入

我这边使用 zhipu ai. 这边可以获取api-key.

加入依赖

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-zhipuai</artifactId></dependency>

并且在配置中配置 api-key

spring: ai: zhipuai: api-key: your_api_key_here chat: options: model: glm-4.6

5.启动

直接运行mcp-client主程序,查看飞书机器人是否注册成功

connected to wss://msg-frontier.feishu.cn/

启动成功后在飞书应用里输入例如北京,等待机器人回复

6.源码

github 仓库. 可以 star 查看后续更新


Fast Request是一个类似于 Postman 的 IDEA 插件。它是一个强大的 restful api 工具包插件,可以根据已有的方法帮助您快速生成 url 和 params。Restful Fast Request = API调试工具 + API管理工具 + API搜索工具。 它有一个漂亮的界面来完成请求、检查服务器响应、存储你的 api 请求和导出 api 请求。插件帮助你在 IDEA 界面内更快更高效得调试你的 API。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/24 17:12:30

Docker run命令启动Miniconda-Python3.10运行PyTorch示例

Docker 运行 Miniconda-Python3.10 并启动 PyTorch 实战指南 在深度学习项目日益复杂的今天&#xff0c;你是否也曾遇到过这样的场景&#xff1a;代码在本地运行完美&#xff0c;推送到服务器却因环境差异报错&#xff1f;或是团队成员之间因为 PyTorch 版本不一致导致实验结果…

作者头像 李华
网站建设 2026/4/24 7:15:23

PyTorch安装失败常见问题及Miniconda解决方案汇总

PyTorch安装失败常见问题及Miniconda解决方案汇总 在深度学习项目启动阶段&#xff0c;最令人沮丧的往往不是模型调参&#xff0c;而是环境还没搭好——pip install torch 卡住、CUDA 不可用、依赖冲突报错满屏飞……这些“本不该发生”的问题&#xff0c;每年都在无数开发者的…

作者头像 李华
网站建设 2026/4/30 17:23:42

制作PDF电子书打包赠送,促进邮件订阅转化

制作PDF电子书打包赠送&#xff0c;促进邮件订阅转化 在技术内容创作的战场上&#xff0c;单纯的文章推送早已不足以打动那些见多识广的开发者用户。他们不再满足于“看懂”&#xff0c;而是渴望“立刻上手”。你有没有遇到过这样的情况&#xff1a;精心写了万字教程&#xff0…

作者头像 李华
网站建设 2026/5/4 23:40:24

使用Miniconda环境运行LangChain应用开发框架

使用Miniconda环境运行LangChain应用开发框架 在构建大语言模型&#xff08;LLM&#xff09;驱动的应用时&#xff0c;你是否曾遇到过这样的场景&#xff1a;本地调试一切正常&#xff0c;但同事拉代码后却因“缺少某个包”或“版本不兼容”而无法运行&#xff1f;又或者&#…

作者头像 李华
网站建设 2026/5/1 17:41:13

工程师 - 奈奎斯特频率

奈奎斯特&#xff08;1889-1976&#xff09;&#xff0c;美国物理学家。1917年获得耶鲁大学工学博士学位。曾在美国AT&T公司与贝尔实验室任职。奈奎斯特为近代信息理论作出了突出贡献。他总结的奈奎斯特采样定理是信息论、特别是通讯与信号处理学科中的一个重要基本结论。奈…

作者头像 李华
网站建设 2026/4/19 10:54:46

通信原理篇---图像信源编码

我们的目标就是&#xff1a;用最小的箱子&#xff08;最少的数据量&#xff09;&#xff0c;装下所有衣服&#xff08;图像信息&#xff09;&#xff0c;并且打开后衣服要基本能用&#xff08;图像可看&#xff09;。 核心思想&#xff1a;扔掉人眼看不出的信息&#xff0c;并用…

作者头像 李华