Agent 记忆从哪儿来 memory大揭秘
嘿,大家好!这里是一个专一于AI智能体的频道!
Inside-trial Information:
这种消息指的是在单个义务或交互环节中搜集的数据。也就是说,它仅与正在启动的义务无关。
例如,在一个对话义务中,Agent或者须要记住对话的高低文消息,以便生成连接和相关的回应。这些消息包括了对话中的一切交互步骤,如Agent的提问、用户的回答以及Agent的后续回应。
Cross-trial Information:
这种消息则超过了多个义务或交互环节,它包括了Agent在不同义务中积攒的阅历、学到的经验以及或者的形式识别。
例如在游览方案义务中,假设Agent在过去的义务中为用户预订过机票和酒店,并从用户那里获取了反应,它可以应用这些跨义务的消息来优化和改良义务的口头战略。
简而言之, "Inside-trial Information" 更并重于义务的即时消息,而 "Cross-trial Information" 则蕴含了Agent在历史义务中的常年积攒和学习。两者联合起来,可以协助智能体在复杂的环境中做出愈加理智和有效的决策。
External Knowledge:
外部常识可认为Agent提供宽泛的消息,这些消息或者与义务没有间接相关,但或者对成功义务或做出决策有协助。例如,Agent或者须要外部天气消息来布局户外优惠。
相比于跨义务消息,外部常识或者与义务不间接相关,但提供了更多的背景消息;跨义务消息与Agent之前的义务间接相关,有助于阅历的传承和运行。
将经典的Agent智能体对应到这3个类别上,咱们可以获取下图的分类结果,√示意合乎相应的消息。
在ExpeL的上班流程图中,咱们可以很明晰的看出这3种记忆的表现!,如下图
本文转载自,作者: