检索增强生成(RAG)再迎重大升级。清华大学THUNLP实验室、东北大学NEUIR实验室、OpenBMB与AI9Stars联合推出UltraRAG 2.1,成为首个基于Model Context Protocol(MCP)架构的开源RAG框架。新版大幅简化多模态智能检索系统的搭建流程——研究者只需写几行YAML配置,就能完成多阶段的推理、生成与评估,全程零代码,显著降低上手难度。
三大核心升级,定义下一代RAG标准
原生多模态支持,打通图文检索闭环
UltraRAG 2.1集成Retriever-Generation-Evaluation一体化流水线,既能处理文本,也支持图像、PDF等多模态数据。其创新的VisRAG Pipeline可直接解析本地PDF,自动抽取文字与图表,构建跨模态索引,实现“以图问答、以文搜图”的混合检索,非常适用于论文研读、技术手册问答等高价值场景。

知识库构建全自动,MinerU深度集成
框架支持Word、PDF、Markdown等多种格式的智能解析与语义分块,并与开源文档处理工具MinerU深度打通,可一键搭建企业级私有知识库。用户无需手动清洗或标注,系统自动完成结构化处理,大幅提升知识管理效率。
统一工作流 + 标准化评估,结果可解释、可优化
UltraRAG 2.1提供可视化的端到端RAG工作流,兼容多种检索引擎(Elasticsearch、FAISS等)与生成模型(Llama、Qwen、Kimi等),并内置标准化评估体系,从相关性、忠实度、流畅性等维度量化效果,帮助开发者快速定位瓶颈并高效迭代。

MCP架构:让RAG真正“可组合、可扩展”
区别于传统RAG的硬编码模式,UltraRAG 2.1基于模型上下文协议(MCP)将检索、推理、生成等环节解耦为标准化“智能体”,通过YAML的声明式配置即可自由拼装复杂任务流。比如,只需几行配置,就能实现“先检索技术文档 → 调用代码生成模型 → 最后用评估模块校验输出”的三阶段流程。
业界普遍认为,UltraRAG 2.1的发布标志着RAG从“工具拼接”走向“工程化范式”。当多模态理解、知识构建与效果评估被纳入一个轻量、开源、低代码的统一框架,企业与研究团队将更易将大模型能力落地到真实业务中。这一由中文社区主导的技术创新,正在为全球RAG生态注入新的活力。
项目地址:https://github.com/OpenBMB/UltraRAG


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?