news 2026/3/7 22:05:03

如何用反馈机制提升Agentic AI的“可靠性”?提示工程架构师的方法

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
如何用反馈机制提升Agentic AI的“可靠性”?提示工程架构师的方法

用反馈给Agentic AI装个“靠谱开关”:提示工程架构师的实战方法论

关键词:Agentic AI、反馈机制、提示工程、可靠性、闭环优化、多模态反馈、Prompt Tuning
摘要:Agentic AI(具有自主决策能力的智能体)就像刚学会独立做事的“小助理”——聪明但容易“犯迷糊”:跑题、报错、输出偏见内容。本文用“小助理学做事”的类比,拆解反馈机制如何成为Agentic AI的“靠谱开关”,并结合提示工程架构师的实战方法,从“概念理解→架构设计→代码实战→场景落地”一步步讲清:如何用反馈闭环让Agentic AI从“偶尔靠谱”变成“持续靠谱”。

背景介绍

目的和范围

  • 目的:解决Agentic AI的“可靠性痛点”——让自主决策的AI从“随机输出”转向“稳定符合预期”。
  • 范围:聚焦“提示工程视角下的反馈机制设计”,不涉及底层模型训练,而是用“提示优化+反馈闭环”快速提升Agentic AI的可靠性。

预期读者

  • 提示工程架构师/工程师(想让Prompt更“管用”);
  • AI产品经理(想解决Agentic AI的用户满意度问题);
  • 算法工程师(想快速迭代Agentic系统的可靠性);
  • 普通开发者(想自己搭一个“靠谱的AI小助理”)。

文档结构概述

  1. 用“小助理跑题”的故事引入核心问题;
  2. 拆解Agentic AI、反馈机制、提示工程的核心概念及关系;
  3. 设计“反馈-提示-Agent”的闭环架构;
  4. 用Python代码实战“AI旅行规划助理”的可靠性优化;
  5. 覆盖客服、代码辅助等实际场景;
  6. 展望未来趋势(多模态反馈、实时优化)。

术语表

核心术语定义
  • Agentic AI:能自主制定目标、规划步骤、执行任务并调整策略的AI(比如AutoGPT、LangChain Agent),类比“能自己做饭的小助理”。
  • 反馈机制:对AI的输出/行为给出“对/错/需要改进”的信号(比如用户说“这个地址错了”),类比“家长给孩子指错题”。
  • 提示工程(Prompt Engineering):设计AI的输入指令(Prompt),让AI更理解任务要求,类比“给小助理写清楚‘做饭清单’”。
  • 可靠性(Reliability):AI输出符合“准确性、相关性、合规性”的程度(比如小助理做的饭“熟了、合口味、没放错盐”)。
相关概念解释
  • 闭环优化:反馈→提示修改→Agent更新→再反馈的循环(类比“小助理做饭→家长提意见→小助理改配方→再做饭”)。
  • Prompt Tuning:通过调整Prompt的结构、约束、示例,优化AI输出(不用重新训练模型)。
缩略词列表
  • LLM:大语言模型(Large Language Model);
  • RLHF:基于人类反馈的强化学习(Reinforcement Learning from Human Feedback);
  • API:应用程序编程接口(Application Programming Interface)。

核心概念与联系:用“小助理学做饭”讲清楚

故事引入:我的AI小助理又“翻车”了

上周我让AutoGPT帮我整理“2024年AI行业投融资报告”,结果它给我拉了个“2024年AI创业公司招聘清单”——不是说清单没用,但完全跑题了!更气人的是,它还把某家公司的融资额写错了(1000万美元写成1亿美元)。

我盯着屏幕想:Agentic AI就像刚上小学的孩子——会自己找食材、做饭,但经常把糖当成盐放,或者把“做红烧肉”做成“炒青菜”。这时候,我需要做两件事:

  1. 给它写清楚“任务清单”(提示工程):比如“做红烧肉,要放3勺糖、1勺盐,煮30分钟”;
  2. 给它“尝菜”的反馈(反馈机制):比如“太甜了,下次少放1勺糖”。

这两件事结合起来,就能让小助理(Agentic AI)越来越靠谱。

核心概念解释:像给小学生讲“做饭”一样

核心概念一:Agentic AI——能自己做饭的小助理

普通AI(比如ChatGPT)是“你说一步,它做一步”:你问“红烧肉怎么做?”,它回答步骤;但Agentic AI是“你说目标,它自己做”:你说“帮我做顿红烧肉”,它会自己查菜谱、找食材、开火煮——甚至会调整:如果没买到五花肉,它会换里脊肉,还会告诉你“用里脊肉代替了,口感更嫩”。

关键特征:自主决策(不需要人类一步步指挥)、工具使用(比如调用菜谱API、食材商城API)、自适应调整(比如没食材时换原料)。

核心概念二:反馈机制——“尝菜”后提意见

反馈机制是“对AI的输出打分数、指错误”。比如:

  • 人工反馈:你吃了小助理做的红烧肉,说“太咸了,下次少放0.5勺盐”;
  • 自动反馈:厨房秤自动检测到“盐放了2勺(超过标准1勺)”,提醒小助理;
  • 用户反馈:家人吃了说“肉没炖烂,下次多煮10分钟”。

核心作用:告诉AI“哪里错了”“怎么改”,让AI从“试错”转向“针对性优化”。

核心概念三:提示工程——给小助理写“做饭清单”

提示工程是“把任务要求写得更清楚、更具体”。比如:

  • 差的提示:“帮我做红烧肉”(小助理可能放错糖和盐);
  • 好的提示:“帮我做红烧肉,要求:1. 用五花肉(不要里脊肉);2. 放3勺冰糖、1勺生抽、0.5勺盐;3. 慢炖40分钟;4. 肉要炖到“入口即化”。”(小助理会严格按要求做)。

关键技巧:加约束(“不要里脊肉”)、给示例(“入口即化”)、定标准(“慢炖40分钟”)。

核心概念的关系:“清单→做饭→尝菜→改清单”的循环

Agentic AI、反馈机制、提示工程的关系,就像“小助理做饭”的完整流程:

  1. 提示工程:给小助理写“做饭清单”(明确任务要求);
  2. Agentic AI:小助理按清单做饭(自主执行任务);
  3. 反馈机制:尝菜后提意见(指出输出的问题);
  4. 闭环优化:根据意见修改清单(优化Prompt),下次再做(Agent更新)。

类比总结

  • 提示是“剧本”,Agent是“演员”,反馈是“导演的点评”;
  • 没有反馈的Agent,就像“闭着眼做饭的小助理”——永远不知道自己错在哪;
  • 没有提示的反馈,就像“只说‘难吃’却不告诉原因”——小助理永远改不好。

核心架构:“反馈-提示-Agent”的闭环流程图

文本示意图:从“任务输入”到“持续优化”

Agentic AI的可靠性优化,本质是**“输入→执行→反馈→优化→再执行”的闭环**,每个环节的作用如下:

  1. 任务输入:用户给Agent一个目标(比如“计划杭州周末旅行”);
  2. Agent执行:Agent调用工具(查酒店、查景点)、生成结果(行程表);
  3. 输出结果:Agent把行程表给用户;
  4. 反馈收集:用户/系统指出问题(比如“预算超了”“酒店地址错了”);
  5. 提示优化:根据反馈修改Prompt(比如加“预算2000元以内”“酒店地址需验证地图”);
  6. 更新Agent:用优化后的Prompt重新配置Agent;
  7. 下一轮任务:Agent用新Prompt执行类似任务,输出更靠谱的结果。
Mermaid流程图:直观看闭环

任务输入

Agent执行

输出结果

反馈收集

提示优化

更新Agent

核心算法原理:用“奖励函数”量化“靠谱程度”

算法逻辑:给“靠谱”打个分

要让反馈机制有效,得把“靠谱程度”量化——就像给小助理做的饭打“甜度分、咸度分、嫩度分”,总分高就是“靠谱”。

我们用**奖励函数(Reward Function)**来量化AI的输出质量,公式如下:
R t o t a l = α ⋅ A + β ⋅ R + γ ⋅ C R_{total} = \alpha \cdot A + \beta \cdot R + \gamma \cdot CRtotal=αA+βR+γC
其中:

  • A AA(Accuracy,准确性):输出的信息是否正确(比如酒店地址对不对);
  • R RR(Relevance,相关性):输出是否符合任务目标(比如“计划旅行”没写成“招聘清单”);
  • C CC(Compliance,合规性):输出是否符合规则(比如预算没超、没放偏见内容);
  • α , β , γ \alpha, \beta, \gammaα,β,γ:权重(根据任务调整,比如客服任务中“准确性”权重更高,α = 0.5 \alpha=0.5α=0.5)。

举例说明:给“旅行规划Agent”打分

假设用户让Agent“计划杭州周末旅行,预算2000元以内”,Agent第一次输出的行程表:

  • 准确性(A):8分(酒店地址对,但景点门票超了);
  • 相关性(R):9分(符合旅行规划);
  • 合规性(C):6分(总预算2500元,超了);
  • 权重:α = 0.4 , β = 0.3 , γ = 0.3 \alpha=0.4, \beta=0.3, \gamma=0.3α=0.4,β=0.3,γ=0.3

计算总奖励:
R t o t a l = 0.4 × 8 + 0.3 × 9 + 0.3 × 6 = 3.2 + 2.7 + 1.8 = 7.7 R_{total} = 0.4 \times 8 + 0.3 \times 9 + 0.3 \times 6 = 3.2 + 2.7 + 1.8 = 7.7Rtotal=0.4×8+0.3×9+0.3×6=3.2+2.7+1.8=7.7

用户反馈“预算超了,换便宜的景点”,优化Prompt后(加“每个景点门票≤100元”),Agent第二次输出:

  • 准确性(A):9分;
  • 相关性(R):9分;
  • 合规性(C):9分;
  • 总奖励:0.4 × 9 + 0.3 × 9 + 0.3 × 9 = 9 0.4×9 + 0.3×9 + 0.3×9 = 90.4×9+0.3×9+0.3×9=9

结论:奖励分从7.7涨到9,说明Agent更靠谱了!

项目实战:用Python搭一个“靠谱的旅行规划Agent”

开发环境搭建

需要安装以下工具:

  1. LangChain:Agent框架(帮我们快速搭建自主决策的AI);
  2. OpenAI API:LLM(用GPT-3.5或GPT-4生成内容);
  3. Python-dotenv:管理环境变量(存储OpenAI API Key)。

安装命令:

pipinstalllangchain openai python-dotenv

源代码详细实现

步骤1:加载环境变量(OpenAI API Key)
fromdotenvimportload_dotenvimportos# 加载.env文件中的API Key(避免硬编码)load_dotenv()openai_api_key=os.getenv("OPENAI_API_KEY")
步骤2:初始化LLM和Agent工具

我们用OpenAI的GPT-3.5作为LLM,定义两个工具(查酒店、查景点):

fromlangchain.llmsimportOpenAIfromlangchain.agentsimportTool# 初始化LLM(temperature=0表示输出更稳定)llm=OpenAI(temperature=0,api_key=openai_api_key)# 工具1:查杭州西湖附近的酒店(模拟真实API调用)defsearch_hotel(location:str)->str:returnf"""离{location}1公里内的酒店推荐: 1. 杭州西湖宾馆:地址西湖区东坡路100号,价格300元/晚(含早餐); 2. 杭州湖滨酒店:地址上城区湖滨路50号,价格250元/晚(步行到西湖5分钟)。"""# 工具2:查杭州热门景点(模拟真实API调用)defsearch_attraction(location:str)->str:returnf"""{location}热门景点: 1. 西湖:门票免费,建议停留3小时; 2. 灵隐寺:门票45元,建议停留2小时; 3. 宋城:门票310元,建议停留4小时; 4. 杭州植物园:门票10元,建议停留2小时。"""# 注册工具(告诉Agent“什么时候用什么工具”)tools=[Tool(name="SearchHotel",func=search_hotel,description="查询指定地点附近的酒店信息,输入是地点名称(比如‘杭州西湖’)"),Tool(name="SearchAttraction",func=search_attraction,description="查询指定地点的热门景点信息,输入是地点名称(比如‘杭州’)")]
步骤3:定义初始Prompt并执行Agent

我们先给Agent一个“不完美的Prompt”,看它的输出:

fromlangchain.promptsimportPromptTemplatefromlangchain.agentsimportinitialize_agent# 初始Prompt(没加预算约束)initial_prompt=PromptTemplate(input_variables=["task"],template="作为旅行规划助理,请帮我完成任务:{task}。请包含酒店和3个景点,信息要准确。")# 初始化Agent(zero-shot-react-description表示“根据工具描述自主选择工具”)agent=initialize_agent(tools=tools,llm=llm,agent="zero-shot-react-description",verbose=True# 打印Agent的思考过程(方便调试))# 任务:计划杭州周末旅行(预算2000元以内,但初始Prompt没提)task="帮我计划周末去杭州的旅行,住离西湖1公里内的酒店,包含3个景点,每个景点停留2小时"# 第一次执行Agentprint("===== 第一次执行结果 =====")first_result=agent.run(initial_prompt.format(task=task))print(first_result)

第一次执行结果(Agent没考虑预算,选了宋城):

我需要帮用户计划杭州周末旅行,住离西湖1公里内的酒店,包含3个景点,每个停留2小时。首先查酒店:用SearchHotel工具查“杭州西湖”,得到两家酒店。然后查景点:用SearchAttraction工具查“杭州”,选西湖、灵隐寺、宋城。计算总费用:酒店选湖滨酒店(250元×2晚=500元),景点门票(0+45+310=355元),总费用约855元?不对,宋城门票310元,用户可能没说预算,但我选了。行程表: - 周六:上午西湖(2小时),下午灵隐寺(2小时),晚上住湖滨酒店; - 周日:上午宋城(2小时),下午返程。
步骤4:收集反馈并优化Prompt

假设用户反馈:“预算超了!宋城门票310元太贵,换一个门票≤100元的景点”。我们根据反馈优化Prompt:

# 优化后的Prompt(加了预算和门票约束)optimized_prompt=PromptTemplate(input_variables=["task"],template="""作为旅行规划助理,请严格完成任务:{task}。需满足: 1. 总预算≤2000元(酒店+景点门票+交通); 2. 酒店离西湖1公里内; 3. 包含3个景点,每个停留2小时; 4. 每个景点门票≤100元; 5. 信息准确,用工具查询最新数据。""")
步骤5:用优化后的Prompt重新执行Agent
# 第二次执行Agent(用优化后的Prompt)print("\n===== 第二次执行结果(优化后) =====")second_result=agent.run(optimized_prompt.format(task=task))print(second_result)

第二次执行结果(Agent换成了杭州植物园,符合预算):

我需要帮用户计划杭州周末旅行,满足预算≤2000元、酒店离西湖1公里内、3个景点(门票≤100元)。首先查酒店:用SearchHotel工具查“杭州西湖”,选湖滨酒店(250元×2晚=500元)。然后查景点:用SearchAttraction工具查“杭州”,选西湖(免费)、灵隐寺(45元)、杭州植物园(10元)——这三个门票都≤100元。计算总费用:酒店500元+门票55元+交通(假设200元)=755元,符合预算。行程表: - 周六:上午西湖(2小时),下午灵隐寺(2小时),晚上住湖滨酒店; - 周日:上午杭州植物园(2小时),下午返程。

代码解读与分析

  1. 工具定义:用Tool类告诉Agent“这个工具能做什么”(比如SearchHotel用于查酒店),Agent会自主选择工具;
  2. Prompt优化:从“没加约束”到“加了预算、门票约束”,Agent的输出从“超预算”变成“符合要求”——这就是提示工程的力量;
  3. 思考过程打印verbose=True让我们看到Agent的“思考步骤”(比如“我需要查酒店,所以用SearchHotel工具”),方便调试。

实际应用场景:不同行业的“靠谱Agent”怎么搭?

场景1:AI客服Agent——用“事实核查+用户反馈”提升准确性

痛点:客服Agent经常回答错误(比如“产品保修1年”实际是2年)。
反馈机制设计

  • 自动反馈:调用“官方文档检索工具”,验证Agent的回答是否符合文档(比如Agent说“保修1年”,工具查文档发现是2年,自动反馈“回答错误”);
  • 用户反馈:在Agent回答后加“这个回答准确吗?”的按钮,用户点击“不准确”后,收集“正确答案”(比如用户说“实际是2年”);
  • 提示优化:在Prompt中加“必须引用官方文档中的最新内容,如‘根据XX产品2024年文档第3章第2节,保修期为2年’”。

场景2:代码辅助Agent——用“编译器反馈+开发者修改”提升正确性

痛点:代码Agent生成的代码有语法错误(比如缺少分号)或性能问题(比如嵌套循环)。
反馈机制设计

  • 自动反馈:用编译器(比如Python的pycodestyle)检查代码,返回错误信息(比如“第5行缺少分号”);
  • 开发者反馈:开发者修改Agent生成的代码后,收集“修改点”(比如“把嵌套循环改成列表推导式”);
  • 提示优化:在Prompt中加“生成的代码要符合PEP8规范,避免嵌套循环,运行前用pycodestyle检查”。

场景3:教育辅导Agent——用“答题正确率+教师点评”提升针对性

痛点:辅导Agent给学生的题目太简单或太难(比如给小学生出高中数学题)。
反馈机制设计

  • 自动反馈:统计学生的答题正确率(比如正确率<60%,说明题目太难);
  • 教师反馈:教师给Agent的题目打“难度分”(比如“这题太简单,换中等难度”);
  • 提示优化:在Prompt中加“根据学生的年级(六年级)和答题正确率(70%),生成中等难度的数学题,知识点是‘分数乘法’”。

工具和资源推荐:提升效率的“神器”

反馈收集工具

  • LabelStudio:开源的标注工具,用于收集人工反馈(比如给Agent的输出打“准确/不准确”标签);
  • Typeform:在线问卷工具,用于收集用户反馈(比如“你对Agent的回答满意吗?”);
  • OpenAI Evals:OpenAI官方的评估工具,用于自动测试Agent的输出质量。

Prompt优化工具

  • PromptLayer:跟踪Prompt的使用情况(比如“这个Prompt的准确率是多少”),方便优化;
  • LlamaIndex:把私有数据(比如官方文档)整合到Prompt中,提升Agent的准确性;
  • ChatGPT Prompt Engineering Guide:OpenAI官方的Prompt设计指南(免费)。

Agent框架

  • LangChain:最流行的Agent框架,支持工具调用、Prompt管理;
  • AutoGPT:开源的自主Agent,适合快速原型开发;
  • BabyAGI:轻量级Agent框架,适合学习闭环优化。

未来发展趋势与挑战

趋势1:多模态反馈——从“文字”到“语音+视频”

未来的反馈机制会支持多模态输入:比如用户用语音说“这个行程表的酒店地址不对”,Agent能识别语音并调整;或者用户拍一张“酒店地址错误”的照片,Agent能理解图片内容并修改。

趋势2:实时反馈——边执行边调整

现在的反馈是“执行完再改”,未来会变成“边执行边改”:比如Agent在查酒店时,系统实时验证地址,发现错误立即调整(不用等用户反馈)。

趋势3:个性化反馈——根据用户习惯调整

Agent会学习用户的偏好:比如用户喜欢“便宜的酒店”,Agent会自动把“预算约束”的权重提高;用户喜欢“人少的景点”,Agent会优先推荐冷门景点。

挑战1:反馈疲劳——用户不愿意给反馈

解决方法:设计轻量级反馈方式(比如点击“准确”或“不准确”按钮,而不是写长评),或者用“奖励机制”(比如给反馈的用户送优惠券)。

挑战2:隐私保护——反馈数据中的用户信息

解决方法:匿名化处理(比如去掉用户的名字、手机号),或者用“联邦学习”(在用户设备上处理反馈,不上传原始数据)。

总结:学到了什么?

核心概念回顾

  • Agentic AI:能自主决策的“小助理”,但容易犯迷糊;
  • 反馈机制:给小助理“提意见”,告诉它哪里错了;
  • 提示工程:给小助理“写清单”,让它更懂任务要求;
  • 闭环优化:“清单→做饭→尝菜→改清单”的循环,让小助理越来越靠谱。

关键结论

  • Agentic AI的可靠性,不是“天生的”,而是“训出来的”——用反馈机制训,用提示工程导;
  • 不用重新训练模型,调整Prompt+加反馈闭环,就能快速提升可靠性;
  • 反馈机制的核心是“量化靠谱程度”——用奖励函数给输出打分,分数高就是“靠谱”。

思考题:动动小脑筋

  1. 如果你的Agentic AI经常生成性别偏见内容(比如“护士都是女生”),你会设计什么样的反馈机制?
  2. 如何让用户愿意给Agent反馈(比如用“一键反馈”按钮代替长评)?
  3. 如果Agentic AI执行的任务很复杂(比如科研实验设计),你会如何设计反馈机制(比如用“专家点评”代替普通用户反馈)?

附录:常见问题与解答

Q1:反馈机制会增加成本吗?

A:一开始需要人工反馈(比如用户提意见),但可以逐渐用自动反馈(比如事实核查工具)代替,降低成本。比如客服Agent的“官方文档检索”反馈,就是自动的,不用人工干预。

Q2:自动反馈和人工反馈哪个好?

A:自动反馈快,人工反馈准。比如“地址是否正确”可以用自动工具查,但“回答是否友好”需要人工判断。建议结合使用:自动反馈处理“事实性错误”,人工反馈处理“主观性问题”。

Q3:Prompt优化需要多久见效?

A:一般3-5次反馈就能看到效果。比如旅行规划Agent,第一次反馈“预算超了”,修改Prompt后,第二次就会符合预算;再反馈“景点不够好玩”,修改Prompt后,第三次就会推荐更热门的景点。

扩展阅读 & 参考资料

  1. 论文:《Reinforcement Learning from Human Feedback》(OpenAI,2020)——RLHF的奠基性论文;
  2. 书籍:《Prompt Engineering for AI:Crafting Effective Prompts for Large Language Models》(David West)——Prompt设计的实战指南;
  3. 博客:LangChain官方文档《Agentic Systems》——详细讲解Agent的设计与优化;
  4. 视频:YouTube《Prompt Engineering for Agents》(FreeCodeCamp)——免费的Prompt工程教程。

最后想说:Agentic AI的“靠谱”,不是“一次性做到”的,而是“慢慢训出来”的——就像教孩子学走路,你得扶着他、纠正他,直到他能自己走稳。反馈机制就是“扶着AI的手”,提示工程就是“告诉AI往哪走”,两者结合,就能让AI从“蹒跚学步”变成“健步如飞”。

下次你的AI小助理再“翻车”,别急着骂它——先给它提个反馈,改改Prompt,说不定下次就靠谱了! 😊

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/26 3:24:17

自定义分配器实战

1、非修改序列算法这些算法不会改变它们所操作的容器中的元素。1.1 find 和 find_iffind(begin, end, value):查找第一个等于 value 的元素,返回迭代器(未找到返回 end)。find_if(begin, end, predicate):查找第一个满…

作者头像 李华
网站建设 2026/2/27 2:59:16

谷歌联合打击全球最大住宅代理网络IPIDEA

谷歌周三宣布,其与合作伙伴联手成功打击了IPIDEA——这个被描述为世界上最大的住宅代理网络之一的组织。 为此,谷歌表示采取了法律行动,关闭了数十个用于控制设备和通过这些设备代理流量的域名。截至发稿时,IPIDEA的官方网站&…

作者头像 李华
网站建设 2026/2/27 2:55:27

为啥大厂 FPS 进对局不立刻清空局外缓存,而是打完再清?(大白话超长版)

玩 FPS 你肯定见过这种流程: 你在大厅里:看商城、换枪皮、调灵敏度、看好友在线 点“开始匹配” 进加载界面 进对局:打得热火朝天 打完结算:经验+1、段位涨、任务完成、掉落发放 回大厅:又能立刻点下一把、又能立刻看战绩、聊天也还在 很多人做框架时会冒出一个“很合理但…

作者头像 李华
网站建设 2026/2/24 14:41:58

【课程设计/毕业设计】基于微信小程序的医院设备管理及报修系统基于springboot的医院设备管理及报修小程序的设计与实现【附源码、数据库、万字文档】

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华
网站建设 2026/3/5 3:28:42

Java毕设项目推荐-基于springboot+vue智慧旅游服务平台网站系统基于springboot的智慧旅游系统【附源码+文档,调试定制服务】

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华