引言
在当今的人工智能领域,检索增强生成系统(RAG)正朝着融合多种复杂功能的方向发展,然而这也给科研人员带来了方法复现和快速迭代新想法时的工程实现难题。在此背景下,UltraRAG 应运而生,为解决这些痛点提供了全新的思路和工具。
项目简介
UltraRAG v2 是首个基于 Model Context Protocol (MCP) 架构设计的 RAG 框架,由清华大学 THUNLP 实验室、东北大学 NEUIR 实验室、OpenBMB 与 AI9stars 联合推出。
该框架旨在成为面向科研的“RAG 实验”加速器,其核心思路包括组件化封装,将 RAG 的核心组件封装为标准化的独立 MCP Server;提供函数级 Tool 接口,支持功能的灵活调用与扩展;借助 MCP Client,建立自上而下的简洁化链路搭建。
通过这些设计,UltraRAG v2 显著降低了复杂 RAG 系统的技术门槛与学习成本,让研究者能将更多精力投入到实验设计与算法创新上。
创新点与核心优势
UltraRAG v2 具有诸多亮眼的创新点和核心优势。
在低代码构建复杂 Pipeline 方面,它原生支持串行、循环、条件分支等推理控制结构,开发者只需编写 YAML 文件,就能实现几十行代码构建的迭代式 RAG 流程。
原生多模态支持是其另一大特色,实现了检索、生成、评估一体化,能构建多模态 RAG 全链路,完成从本地 PDF 建库到多模态检索再到多模态生成的闭环流程,提升复杂文档场景下的理解与问答能力。
在快速复现与功能扩展上,基于 MCP 架构,所有模块均封装为独立、可复用的 Server。用户可自定义 Server 或复用现有模块,新增功能仅需添加一个函数,还支持调用外部 MCP Server 扩展能力与应用场景。
知识接入与语料构建自动化方面,它支持多种格式文档解析与分块建库,与 MinerU 无缝集成,可一键构建个人化与企业级知识库。
同时,它拥有统一构建与评估的 RAG 工作流,适配多种检索引擎与生成推理后端,内置标准化评估体系,支持全链路可视化调试与结果分析。
此外,其统一评测与对比功能,内置标准化评测流程与指标管理,开箱即用支持多个主流科研 Benchmark,持续集成最新基线,方便科研人员进行系统性对比与优化实验。
技术原理与部署
UltraRAG v2 的技术核心在于 MCP 架构与原生流程控制的深度融合。
MCP 架构规范了为大型语言模型提供上下文的标准方式,采用 Client–Server 架构,使遵循该协议的 Server 组件可在不同系统间无缝复用。UltraRAG v2 基于此将 RAG 系统中的核心功能抽象封装为独立的 MCP Server,通过标准化函数级 Tool 接口实现调用,保证了模块扩展灵活性,新模块可“热插拔”接入。
原生流程控制让 UltraRAG v2 能在低代码条件下支持复杂系统构建,串行、循环、条件分支等控制逻辑可在 YAML 层定义与调度,推理流程调度由内置 Client 执行,逻辑由外部 Pipeline YAML 脚本描述,实现与底层解耦,开发者能以声明方式快速构建多阶段推理流程。
部署方面,可使用 Conda 创建虚拟环境,通过 git 克隆项目,推荐用 uv 或 pip 进行包管理安装依赖,也可选择 Docker 构建运行环境,既可以本地构建镜像,也能使用预构建好的镜像。安装后运行指定命令可验证是否成功,还可根据实际任务灵活安装所需的各类 Server 组件依赖。
该项目及相关内容已在 AladdinEdu 课题广场同步发布,欢迎前往了解更多技术实现与资源。
项目地址:AladdinEdu 课题广场