RAG Golden Agentic

企业落地RAG系统痛点:

Golden-Retriever系统:在文档检索前参与了一个基于反思的疑问增强步骤,用于识别术语、依据高低文廓清其含意,并相应地增强疑问。

一个比拟Golden-Retriever与相关上班的示用意。两种类型的方法:离线和在线。在左上角,现有的离线方法经常使用大型言语模型(LLMs)生成训练数据集。右上角展现了Golden-Retriever离线方法,应用LLMs增强文档数据库,为在线阶段做预备。在线方法在图的下半局部描画。从左下到右下:Corrective RAG和Self-RAG在文档检索步骤后修正RAG的照应。假设用户的疑问含混不清或不足高低文,RAG无法检索到最相关的文档,限度了这些方法的有效性。另一种方法将疑问解构为形象语法树(AST),并相应地分解SQL查问,提高了查问的保真度,但仅实用于SQL查问。Golden-Retriever的方法反思疑问,识别其高低文,并在文档检索之前经过查问术语字典来增强疑问。增强后的疑问准许RAG虔诚地检索最相关的文档,即使存在含混的术语或不足明白的高低文。

Golden-Retriever的组成:蕴含离线(offline)和在线(online)两个局部。

离线文档增强(LLM-Driven Document Augmentation)

文档预处置和LLM驱动的文档增强环节的示例揭示实施的插图

在线环节(online):每次用户提问时,系统经过LLM识别疑问中的术语和高低文,查问术语字典,而后增强原始疑问,以便RAG框架检索最相关和准确的文档。

1.1识别术语(Identify Jargons):识别用户疑问中的术语和缩写,为确保准确解释,经常使用LLM提取并列出一切潜在的术语和缩写。

1.2确定高低文(Identify Context):确定疑问中术语的高低文,经常使用LLM经过揭示模板来识别疑问高低文。

1.3查问术语(Query Jargons):经常使用已识别的术语查问术语字典,失掉裁减定义、形容和注释。

1.4增强疑问(Augment Question):联合原始疑问、高低文消息和具体的术语定义,构成增强后的疑问,以提供明晰的高低文并处置任何歧义。

1.5查问未命中照应(Query Miss Response):假设系统在字典中找不到某些术语的相关消息,Golden-Retriever有一个备选机制,分解一个照应,批示因为缺少消息而无法回答疑问。

左侧是Golden-Retriever在线推理局部的上班流程图。右侧是系统与LLM在上班流程两边步骤的示例交互。系统揭示LLM生成两边照应,这些照应被保留、访问,并用于上班流程中后续的步骤。

经过在特定畛域的问答数据集上的评价,Golden-Retriever在多个开源LLM上体现杰出,与传统的RAG方法相比,清楚提高了答案的准确性。与Vanilla LLM和RAG相比,Golden-Retriever区分将Meta-Llama-3-70B的总分提高了79.2%和40.7%。在测试的一切三种大型言语模型中,平均将得分提高了57.3%。

与传统的LLM微调方法相比,Golden-Retriever防止了计算老本高、泛化才干差和容量限度等疑问。

问答实验结果。经常使用针对工程师新员工培训文档中的六个不同畛域的检验作为测试疑问。一切疑问都是多项选用题。显示的是五次实验的平均得分。最佳得分用粗体显示。

缩写识别实验的结果标明,Golden-Retriever系统中经常使用的LLM能够有效地识别疑问中的缩写,这关于提高疑问解答的准确性至关关键。

附录

QA对示例

展现了一些用于疑问回答实验的评价数据的非隐秘实例,如下所示:

分解数据集生成模板

以下是用于生成缩写识别实验中随机缩写的疑问模板和随机缩写列表。

样本实验结果

在这里,展现了缩写识别实验的样本实验结果。强调展现失败形式,这些形式在不同的大型言语模型(LLMs)中是不同的。

High-Fidelity Agentic Retrieval Augmented Generation for Industrial Knowledge Base

本文转载自​​,作者:

您可能还会对下面的文章感兴趣: