还有这五种方法消弭大模型幻觉 除了RAG
出品 | 技术栈(微信号:blog51cto)
妇孺皆知,LLM会发生幻觉——即生成不正确、误导性或有意义的消息。
有意思的是,一些人,如OpenAI的CEO Sam Altman,将AI的幻觉视为发明力,而另一些人则以为幻觉或者有助于做出新的迷信发现。
但是,在大少数状况下,提供正确回答至关关键,幻觉并不是一项个性,而是一种毛病。
那么,如何缩小LLM的幻觉呢?长高低文?RAG?微调?
其实,长高低文LLMs并非十拿九稳,向量搜查RAG也不尽善尽美,而微调则随同着其自身的应战和限度。
上方是一些可以用来缩小LLM幻觉的初级技术。
1.初级揭示词
对于经常使用更好或更初级的揭示词(prompts)能否能处置大型言语模型(LLM)的幻觉疑问,确实存在很多探讨。
只管一些人以为编写更具体的揭示词对处置(幻觉)疑问没有协助,但谷歌大脑(Google Brain)的联结开创人吴恩达(Andrew Ng)等人却看到了其中的后劲。
吴恩达以为,GPT-4和其余先进模型的推理才干使它们十分长于解释带有具体说明的复杂揭示词。
“经过多示例学习,开发者可以在揭示词中给出数十个,甚至数百个示例,这比少示例学习更为有效,”他写道。
为了改良揭示词,许多新的停顿也在始终涌现,比如Anthropic公司于5月10日颁布了一款新的“Prompt Generator”工具,该工具可以将便捷的形容转化为针对大型言语模型(LLMs)优化的初级揭示词。经过Anthropic控制台,就可以生成用于消费的揭示词。
最近,马克·安德森(Marc Andreessen)也示意,经过正确的揭示,咱们可以解锁AI模型中的潜在超级天赋。“在不同畛域的揭示技术可以解锁这种潜在超级天赋”,他补充道。
2.Meta AI的Chain-of-Verification(CoVe)
Meta AI的Chain-of-Verification(CoVe)是另一种技术。这种方法经过将理想核对合成为可治理的步骤,提高照应准确性,并与人类驱动的理想核对环节坚持分歧,来缩小大型言语模型(LLMs)的幻觉现象。
CoVe触及生成初始照应、布局验证疑问、独立回答这些疑问,并生成最终经过验证的照应。经过系统地验证和纠正其输入,这种方法清楚提高了模型的准确性。
它经过缩小幻觉并参与理想正确性,在各种义务中提高了功能,如基于列表的疑问、闭卷问答和长篇文本生成等。
3.常识图谱
RAG(检索增强的生成)不再局限于向量数据库婚配,目前引入了许多先进的RAG技术,清楚提高了检索成果。
例如,将常识图谱(KGs)集成到RAG中。经过应用常识图谱中结构化且互关系联的数据,可以大大增强RAG系统的推理才干。
另一种技术是Raptor,该方法经过创立更上档次的形象来处置超过多个文档的疑问。它在回答触及多个文档概念的查问时特意有用。
像Raptor这样的方法与长高低文大型言语模型(LLMs)十分契合,由于你可以间接嵌入整个文档而无需分块。
该方法经过将外部检索机制与变换器模型集成来缩小幻觉现象。当接纳到查问时,Raptor首先从外部常识库中检索关系且经过验证的消息。
而后,将这些检索到的数据与原始查问一同嵌入到模型的高低文中。经过将模型的照应基于理想和关系消息,Raptor确保生成的内容既准确又合乎高低文。
5.共形抽离(Conformal Abstention)
论文《经过共形抽离缓解大型言语模型的幻觉现象》引见了一种经过运行共形预测技术来确定模型何时应该防止给出照应,从而缩小大型言语模型(LLMs)中的幻觉现象的方法。
经过经常使用自我分歧性来评价照应的相似性,并应用共形预测启动严厉的保障,该方法确保模型只在对其准确性有信念时才做出照应。
这种方法在坚持平衡的抽离率的同时,有效地限度了幻觉现象的出现率,特意无利于须要长篇回答的义务。它经过防止失误或不合逻辑的照应,清楚提高了模型输入的牢靠性。
6.RAG缩小结构化输入中的幻觉现象
最近,ServiceNow经过RAG缩小了却构化输入中的幻觉现象,提高了大型言语模型(LLM)的功能,成功了域外泛化,同时最小化了资源经常使用。
该技术触及一个RAG系统,该系统在生成文本之前从外部常识库中检索关系的JSON对象。这确保了生成环节基于准确且关系的数据。
经过融入这一预检索步骤,模型不太或者发生失误或捏造的消息,从而缩小了幻觉现象。此外,这种方法准许经常使用较小的模型而不就义功能,使其既高效又有效。
本文转载自 技术栈