具身多智能体义务中规划与推理的基准测试框架 Meta最新!PARTNR
本文提出了一团体机协作中的规划与推理义务基准(PARTNR),旨在钻研家庭优惠中的人机协调。PARTNR义务展现了日常义务的特点,如空间、时期和异构agent才干解放。咱们驳回大型言语模型(LLMs)构建了一个半智能化的义务生成流程,并融入了循环中的模拟以启动成功和验证。PARTNR是同类基准中规模最大的,蕴含10万团体造言语义务,触及60栋屋宇和5819个共同东西。围绕规划、感知和技艺执行等维度,对PARTNR义务上的最新大言语模型(SoTA)启动了剖析。剖析结果显示,SoTA模型存在清楚局限性,如协调性差、义务跟踪失败以及失误复原才干无余。当大型言语模型与人类实在用户配对时,它们所需的步骤数是两人协作的1.5倍,比单团体类多1.1倍,这凸显了这些模型有待优化的后劲。论文还进一步标明,经常使用规划数据对较小的大型言语模型启动微调,可以成功与体积为其9倍的大型模型相当的性能,同时在推理速度上快8.6倍。PARTNR凸显了协作式实体agents面临的严重应战,并旨在推进该畛域的钻研开展。
Code:
Website:
内容出自国际首个具身智能全栈学习社区: 具身智能之心常识星球, 这里蕴含一切你想要的。
构想这样一个家用机器人:它能像人与人之间的互动那样,经常使用人造言语与人类在日常优惠中协作。这种场景须要两个关键个性:机器人与人类之间的灵活协作,以及经常使用人造言语启动交流。具身人工智能(embodied AI)的基准测试通常只满足其中一个条件;要么机器人是独立运作的,要么义务不是用人造言语指定的。虽然具身人工智能畛域取得了清楚停顿,但在评价机器人在协作环境中的体现的事实基准测试方面仍存在空白。为了补偿这一空白,咱们推出了人机协作中的规划与推理义务基准(PARTNR),这是一个陈腐的基准测试,用于评价具身人工智能agent在模拟室内环境中与人类在各种家庭优惠上的协作才干。
PARTNR由10万团体造言语指令和与之配套的评价函数组成,重点关注四种义务类型:(1)无解放义务,其中子义务可以由任一agent以任何方式成功,(2)蕴含空间解放的空间义务,(3)须要按顺序执行的时期义务,以及(4)蕴含无法由其中一个agent成功的举措的异构义务。除了长时规划、新型局部可观察环境以及大形态和举措空间等传统应战外,PARTNR还强调了有效协作灵活(如义务调配和跟踪协作同伴的进度)的必要性。
创立这样一个具备大规模人造言语义务和定制评价函数的基准测试面临着严重应战。的基准测试通常依赖于模板化义务或由人类设计的义务和评价,这或者限度了数据集的多样性或规模。为了克制这一疑问,本文提出了一种经常使用大型言语模型(LLMs)并结合循环模拟接地(simulation-in-the-loop grounding)的半智能化生成方法。首先,大型言语模型生成义务和评价函数,这些函数与模拟屋宇中的东西和家具相关联。接上去,驳回循环模拟来过滤掉幻觉和无法行的指令,并经过人工标注来增强多样性和准确性。而后,应用一套经过验证的1000条指令和评价函数以及多样化的模拟屋宇,经过高低文提醒疏导大型言语模型创立10万个义务。
由于PARTNR蕴含人造言语义务,且大型言语模型(LLMs)在规划方面已展现出清楚功效,咱们探求了如何提醒和微调LLMs,以评价它们在协作场景中的有效性。咱们钻研了环境可观性(即齐全可观或局部可观)、集中式与扩散式多智能体控制、学习到的或特权机器人技艺、以及基于LLMs的规划中对3D环球消息启动接地的不同方式的影响。除了这些经常使用分解人类同伴启动的智能化评价外,还启动了蕴含实在人类介入的评价,让人们独自执行义务、与人类同伴一同执行义务或与LLMs指点的机器人同伴一同执行义务。总体而言,发现LLMs在协调、义务跟踪以及处置感知和技艺失误方面存在艰巨。虽然人类能够处置93%的PARTNR义务,但在非特权条件下,最先进(SoTA)的LLMs仅能成功成功30%的义务。此外,在扩散式多智能体设置中,由于跟踪同伴举措的才干较差,造成发生了多余举措,成功义务所需的步骤比单智能体多1.3倍。相比之下,在咱们的蕴含实在人类介入的试验中,人类伙伴的体现优于独自的人类,这凸显了改良LLMs协作战略的后劲。LLMs还难以从技艺失败和感知接地失误中复原,当移除特权技艺和特权感知时,其性能会降低。在比拟模型大小时,咱们发现经过微调的较小模型Llama3.1-8B的性能与未经微调的Llama3.1-70B相当,但推理速度却快了8.6倍。在与实在人类共同介入的评价中,这一更快的推理速度施展了关键作用,由于经过微调的模型所需步骤更少,为人类分担了更多义务。
PARTNR能够在各种协作场景中成功对具身智能体的可重复、大规模和系统性的评价。经过系统性的评价,咱们提醒了基于LLM的规划器的关键局限性,为未来的钻研指明了幽默的方向。
基于言语的具身人工智能基准测试。少量关于具身人工智能中言语基准测试的上班都集中在导航或具身问答上,这些义务触及导航和消息搜集,但不须要智能体修正其环境。与本文的上班更为凑近的是指令遵照基准测试,在这些基准测试中,智能体经过与环境的交互来成功经过言语形容的义务,虽然义务的多样性有限。相比之下,咱们应用大型言语模型(LLMs)生成多样化的义务定义和场景初始化,并将其扩展到多智能体设置中。经常使用LLMs扩展义务生成的规模这一想法在最近的一些上班中失掉了探求。但是,这些上班往往并重于相对短期内的单智能体义务,而本文思考的是常年的多智能体疑问。表1将相关基准测试与PARTNR启动了比拟。
具身多智能体基准测试。多项上班曾经提出了具身多智能体基准测试。其中许多基准测试都集中在便捷2D环境中的协调疑问上,这限度了它们在事实环球场景中的运行。最近的上班开发了钻研更实在环境和优惠中协作的基准测试,这些基准测试关注在大型、局部可观察的3D环境中从新陈列物体或家具,或在柜台空间内操作物体。但是,这些基准测试通常局限于一组预约义且数量有限的义务,这些义务往往不是用人造言语形容的,并且关键触及物体的从新陈列。相比之下,PARTNR涵盖了一个放开的义务集,每个义务都用人造言语形容,要求智能体在空间和时期的解放下从新陈列物体,并要求执行只能由人类智能体成功的异构举措(例如洗碗或关上烤箱)。
咱们推出了PARTNR基准测试,旨在训练和评价机器人与人类协作处置人造言语义务的才干。PARTNR涵盖了四种类型的义务:(1)无解放义务,即子义务可以由任一智能体以任何方式成功。例如,“让咱们把一切脏盘子移到水槽里。”(2)空间义务,须要推理物体的空间位置。例如,“让咱们把书放在书架上,彼此紧挨着。”(3)时期义务,子义务的执行顺序很关键。例如,“让咱们先把餐桌上的蜡烛拿走,再把盘子端到桌上。”(4)异构义务,触及超出机器人才干的举措。例如,“让咱们在把盘子放到架子上之前先把它们洗洁净。”在机器人的技艺不支持洗濯的场景中,成功这项义务须要对智能体的才干启动推理。咱们的基准测试包括人造言语指令和相应的评价函数,这两者都是经常使用大型言语模型(LLMs)大规模生成的。详细来说,咱们生成了1000条经过人工验证的指令和相应的评价函数,并将它们作为即时提醒示例,扩展到其余具备不同规划和物体的场景中的100000项义务。咱们智能生成的一个共同之处在于,在生成循环中整合了一个实体模拟器,这大大缩小了大型言语模型或者发生的幻觉和无法执行作等失误。
1 基于仿真循环的义务指令生成
虽然基于大型言语模型(LLM)的义务生成在之前的文献中已有钻研,但这些生成的义务并未超出用户创立的 in-context prompts的范围。在PARTNR中,经常使用了基于仿真循环的生成技术,将大言语模型与环境、智能体和可用举措相结合。详细来说,在Habitat 3.0模拟器中实例化了一个仿真环境,该环境填充了HSSD数据集,蕴含60栋共同的屋宇和5819个OVMM对象。模拟屋宇被解析为房间和可用家具的列表,并与一切可用目的一同传递给大言语模型。应用这些消息,要求大言语模型在场景中生成自在方式、可行的义务,以及初始场景形态形容。例如,假设生成的义务是“清算客厅的餐具”,大型言语模型应该生成一个客厅内有多个餐具的初始场景。在这个阶段,还会向场景中参与额外的目的,以在环境中制作凌乱。义务、初始形态和凌乱一旦生成,就会在模拟器中实例化,并过滤掉无法行的指令。例如,假设屋宇没有客厅,“清算客厅的餐具”就是有效的。雷同,假设生成的义务须要模拟器不支持的举措,如折叠,则该义务会被过滤掉。通常,幻觉的发生率很高,造成少量情节被摈弃。咱们观察到,在过滤掉无法行的指令后,生成指令的多样性通常遭到限度。例如,大少数指令都经常使用相反的对象(如餐具)或相似的房间(如厨房或餐厅)。为了参与生成义务的多样性,咱们启动了手动标注,以确保义务和对象的多样性,例如,经过修正指令以激起特定特色,来维持无解放、空间、时期和异构义务的平衡散布。这一环节发生了1000个经过人工标注和仿真验证的义务。
关于大规模生成而言,这种手动标注并不实践。相反,咱们应用这1000条经过人工标注的指令作为提醒中的示例,来扩展生成规模。向大言语模型提供屋宇形容和一个示例义务,并批示它修正义务以顺应新的屋宇。例如,将义务“清算客厅里的一切餐具”修正为“清算卧室里的一切玩具”。这样做可以在坚持原始标注指令集多样性的同时,确保在模拟器中成功实例化的高或者性。从品质上看,咱们过滤或编辑了约90%的自在方式生成的指令,而只要约10%的扩展指令须要这样做。经常使用LLama3-70B-Instruct来生成一切指令。最后,一切义务都经过基于人类反应的循环过滤。在这一步中,人类经常使用咱们的基于人类反应的工具尝试成功义务,并消弭难以检测的物理上无法行的指令,比如要求一个物体同时出如今两个位置。图2概述了咱们的流程。
为了判别智能体能否成功成功了指令“清算客厅里的一切餐具”,咱们须要一个评价函数来验证能否已从任何客厅中移除了一切勺子、叉子和其余餐具。但是,手动标注义务所需的一切从新陈列和形态变动既耗时又由于每个义务的独个性而在大规模上难以成功。与指令生成相似,咱们驳回大型言语模型(LLM)来创立一个评价函数,该函数无需任何手动标注即可评价义务成功状况。详细来说,应用大型言语模型生成基于谓词的Python程序的才干,这须要经常使用三种类型的API:一个命题列表,批示实体之间必定满足的相关;一组依赖项,批示何时应查问命题;以及一组解放,批示命题必定如何满足。为这些组件中的每一个定义了一个富裕表白力的词汇,以便对基准测试中的一切义务启动评价(例如,图3)。亲密相关的评价系统包括经常使用PDDL或BDDL定义义务。选用构建一个新的基于Python的评价系统,由于这两个系统都无法在坚持人类和大型言语模型可解释性的同时评价PARTNR义务;例如,BDDL不支持随时期变动的评价。由于PARTNR义务具备时期依赖性(例如,多步骤从新陈列),因此评价函数的输入是义务执行时期模拟器形态的完整序列。评价函数前往三个目的:(1)成功百分比(PC ∈ [0, 1]),即相关于解放而言已满足的命题的百分比;(2)成功(S ∈ {True, False}),权衡义务能否成功成功,定义为S := (PC = 1);以及(3)失败解释(FE),一种人类和大型言语模型可解释的言语形容,用于说明智能体未能成功义务的要素。
经常使用CodeLLama-70B-instruct来生成评价函数。如图3所示,生成完美的评价函数并非易事。大型言语模型(LLM)必定依据人造言语指令和特定的模拟环境,正确分类一切或者的举措空间,这或者相当复杂。例如,在图3中,指令“把植物放在架子上”指的是“架子”,但房间里有两个架子。评价函数必定准许选用恣意一个架子,同时要求搁置一切植物,并最终思考相邻相关。命题或解放中的任何失误或缺失值都会造成评价函数失效。因此,咱们观察到LLM生成的失误率很高,特别是关于失误命题和时期顺序解放的失误。
为了减轻这些不准确性,遵照与指令生成相似的半智能化程序。首先为1000条人工标注的指令生成评价函数,并启入手动标注以启动修正。这发生了蕴含1000对经过人工验证的指令和评价函数的数据集。接上去,为扩展的100000条指令集生成评价。请留意,扩展指令是经过向LLM提供标注集中的示例指令来生成的。咱们检索相应的标注评价函数,并将其提供应LLM。这与检索增强生成等方法相似,并经过人工审核发现,将评价函数生成的准确率从50%提高到92%。最后一步是,要求人类用户经常使用咱们基于人类反应的评价工具处置一切PARTNR义务。一切在人类用户6次尝试(3次单人尝试,3次多人尝试)后仍未处置的义务都被视为无法行,并从数据集中删除。咱们发现,智能化生成的指令中约有90%准确,评价函数中约有92%准确,综合生成准确率为90% × 92% = 83%。