大模型RAG系统的4层境界! 微软新综述
当蠢才享这篇很干的文章!经过对RAG系统的用户Query启动难度辨别,进而可以将系统划分为4个等级。
Retrieval Augmented Generation (RAG) and Beyond: A Comprehensive Survey on How to Make your LLMs use External>
经常使用外部数据增强的大型言语模型 ( LLMs ) 在实现理想环球义务方面体现出了出色的才干。外部数据不只增强了模型的特定畛域专业知识和期间相关性,而且还缩小了幻觉的出现率,从而增强了输入的可控性和可解释性。将外部数据集成到LLMs中的技术,例如检索增强生成(RAG)和微调,正在取得越来越多的关注和宽泛运行。虽然如此,在各个专业畛域有效部署数据增强LLMs仍面临着渺小的应战。这些应战涵盖了宽泛的疑问,从检索相关数据和准确解释用户用意到充沛应用LLMs的推理才干来实现复杂的义务。咱们置信,关于数据增强LLM运行程序来说,没有一种万能的处置打算。在通常中,成果不佳通常是由于未能正确识别义务的外围焦点,或许由于该义求实质上须要混合多种配置,必定将这些配置合成以取得更好的处置打算。在本次考查中,咱们提出了一种 RAG 义务分类方法,依据所需的外部数据类型和义务的关键关注点将用户查问分为四个级别:显式理想查问、隐式理想查问、可解释的基本原理查问和暗藏的基本原理查问。咱们定义这些级别的查问,提供相关数据集,并总结关键应战和应对这些应战的最有效技术。最后,咱们探讨了将外部数据集成到LLMs中的三种关键方式:高低文、小模型和微调,强调了它们各自的长处、局限性以及它们适宜处置的疑问类型。本文旨在协助读者深化了解和合成构建LLM运行程序的数据需求和关键瓶颈,为不同的应战提供处置打算,并作为系统开发此类运行程序的指南。
LLMs在各个专业畛域较容易遇到一些疑问,如模型幻觉、与特定畛域知识的不分歧等。所以整合特定畛域的数据关于满足特定行业需求是十分关键的。经过RAG和微调等技术,基于RAG的LLM运行在多个方面显示出比仅基于通用LLM的运行的长处。
通常,基于RAG的LLM运行可以表述为一个映射环节,即基于给定数据D,将用户输入(查问Q)映射到预期照应(答案A)。
依据与外部数据D的交互水平和所需的认知处置水平,咱们可以将查问分为不同档次。
上述文字对应了下图
L1 显式理想查问
应战:
处置打算:(引见了十分多的初级RAG技巧)
L2 隐式理想查问
应战:
处置打算:
剩下2种不做更多引见了,有点扯远了,一张图示意如下:
本文转载自,作者: