中科院团队开源TrustRAG框架:让RAG生成结果可靠、可追溯

当AI回答问题时,你敢完全相信吗?

大模型虽强,但幻觉频发、时效性不足、领域知识缺失等问题,始终是落地应用的“拦路虎”。

中科院团队最新开源的TrustRAG框架,通过系统性设计直击这些顽疾,并构建了完整的开发生态——既能满足深度定制,也支持无代码搭建问答系统

论文、代码、demo均已开源,可在文末查看。

RAG的信任危机:为何传统系统易“翻车”?

传统RAG框架通过结合检索系统与大模型,试图弥补LLM的短板。但现有方案仍存在三大痛点:

① 索引粗糙:简单文本分块易破坏语义连贯性,导致后续检索与生成“断章取义”;

② 检索盲目:仅依赖向量相似度,高相似文档未必对生成有用;

③ 引用模糊:生成答案的引用来源笼统,难以追溯具体依据。

TrustRAG团队发现,现有框架多聚焦单一环节优化,而真实场景需要全链路升级。

他们直击上述问题,提出语义增强索引、效用增强检索、归因增强生成三大核心技术,并开源全套工具库与可视化交互平台,助力开发者快速构建高可信RAG应用。

TrustRAG三大创新:从“能用”到“可信”

一、语义增强索引:让文本分块不再“断片”

传统分块方法(如按字符或段落切割)常割裂上下文,导致语义丢失。

TrustRAG引入两项关键技术:

① 指代消解与上下文还原:利用大模型自动解析文档中的代词,补全缺失的上下文信息。并且可以根据文档发布的日期,将模糊的时间标准化。例如,将“上周五”转为具体日期。

② 动态语义分块:基于嵌入模型和LLM动态识别文本语义边界,确保每个分块内容完整、主题聚焦。

二、效用增强检索:从“相似”到“有用”

传统检索仅关注文档与查询的相似度,但高相似度≠高价值

TrustRAG通过两步筛选优质信息:

① 效用判别器:用LLM评估文档对生成任务的实际价值。例如,过滤掉“看似相关但缺乏实质性证据”的文档;

② 细粒度证据提取:从文档中蒸馏出最相关的句子,减少冗余输入,提升生成效率。

三、溯源增强生成:为每句话标注“参考文献”,答案可溯源,引用更精准

传统方法在生成时嵌入引用,易导致引用错误或性能下降。

TrustRAG首创后生成引用匹配技术:

先生成答案,再与检索内容匹配,确保引用准确率;

支持句子级引用分组与交叉验证确保 TrustRAG 提供准确且可追溯的答案。

系统架构:双引擎驱动,兼顾灵活与易用

TrustRAG并非单一工具,而是“库+工作室”的全栈生态。

① TrustRAG Library(后端)

  • 模块化设计,覆盖索引、检索、生成全流程,支持 RAG 的低代码实验,并提供了20+模块化组件。
  • 开发者可自由组合功能(如切换分块策略、调整LLM裁判阈值),代码见GitHub仓库。

② TrustRAG Studio(无代码前端)

  • 知识管理面板:上传文档、配置处理选项、选择索引方法。
  • 对话管理面板:选择检索策略、调整生成模型。
  • 可视化溯源:实时展示系统如何解析问题、筛选文档、生成答案。

该团队以“气候变化对珊瑚礁的影响”为例,展示TrustRAG的全流程应用:

① 知识库构建:上传气候研究论文、政府报告、新闻文章等原始文档。

② 问答应用配置:选择知识库与生成模型,设定输出格式。

③ 执行问答任务:输入问题,系统输出结构化的答案,每条结论下直接附原文出处。

右侧展示检索过程,包括查询解析、文档筛选逻辑及引用关系推导。


开源地址

在线Demo:
https://huggingface.co/spaces/golaxy/TrustRAG

GitHub代码库:
https://github.com/gomate-community/TrustRAG

论文:
https://arxiv.org/html/2502.13719v1#S5

本文由「千探图灵」编译,获取更多AI前沿研究,欢迎关注!

整理不易,如有错误,欢迎指正。

原文链接:,转发请注明来源!