|
摘要: 检索增强生成(RAG)已经成为减少大型语言模型(LLMs)中幻觉的主要方法之一。目前的RAG评估基准主要集中在我们称之为本地RAG的内容:从一小部分文档中检索相关片段以回答仅需要特定文本片段内部局部理解的查询。然而,许多现实世界的应用需要一种根本不同的能力 - 全局RAG - 这涉及聚合和分析整个文档集合中的信息,以得出语料库级别的见解(例如,“2023年最常被引用的前10篇论文是哪些?”)。在本文中,我们介绍GlobalQA - 第一个专门设计用于评估全局RAG能力的基准,涵盖四种核心任务类型:计数、极值查询、排序和前k提取。通过对不同模型和基线的系统评估,我们发现现有的RAG方法在全局任务上表现不佳,最强基线仅达到1.51的F1分数。为了解决这些挑战,我们提出了GlobalRAG,这是一个多工具协作框架,通过块级检索保持结构连贯性,整合LLM驱动的智能过滤器以消除嘈杂文档,并集成用于精确符号计算的聚合模块。在Qwen2.5-14B模型上,GlobalRAG达到6.63的F1,而最强基线只有1.51的F1,验证了我们方法的有效性。 更新时间: 2025-10-30 07:29:14 领域: cs.CL,cs.AI
|