两种高效的Rerank模型通常指南 再次优化RAG功能
在初级RAG运行中,检索后解决过程至关关键 。Rerank技术经过从新排序检索出的文档块,确保与用户疑问更关系的消息排在前面,从而 提高言语模型生成答案的品质 。在这个过程中,可以做一些诸如相似渡过滤、关键词过滤、chunk内容交流等解决。其中, Rerank(重排序) 是一种经常出现的,也是在RAG运行优化中很经常出现的一种技术解决过程。
本文引见了两种被宽泛认可的Rerank模型: Cohere Rerank模型和bge-reranker-large模型 ,并提供了经常使用指南。
一、为什么还须要Rerank
Cohere Rerank是一个商业闭源的Rerank模型。它依据 与指定查征询题的语义关系性对多个文本输入启动排序,专门用于协助关键词或向量搜查前往的结果做从新排序与优化品质。
为了经常使用Cohere Rerank,你首先须要在官网网站()注册后放开测试的API-key(测试经常使用收费):
Cohere Rerank的经常使用十分便捷,通常在LangChain与LlamaIndex框架中集成经常使用。上方展现如何在LangChain框架中经常使用Cohere Rerank来优化检索结果。
输入结果示例
在调用Cohere Rerank之后,内容的关系性和其对应的查问愈加婚配,排序也愈加正当。 这种愈加正当的排名一方面无利于LLM生成更准确的回复;另一方面也可以协助降落top_K数量,以浪费高低文空间。
bge-reranker-large 是国际智源开源的一个被宽泛经常使用的Rerank模型,在泛滥的模型测试中有着十分低劣的效果。
上方展现如何在LangChain框架中经常使用 bge-reranker-large 来优化检索结果。
输入结果示例
了解更多:
总结:
Rerank只管在RAG流程中看似不那么显眼,但其成功便捷、资源要求低,且不依赖于特定的嵌入模型,能够清楚优化最终生成的品质。无论是选用在线的Cohere Rerank模型,还是本地部署的bge-reranker-large模型,都能为您的RAG运行带来功能上的优化。
原文链接: