Self-Corrective Task Planning by Inverse Prompting with Large Language Models

作者: Jiho Lee, Hayun Lee, Jonghyeon Kim, Kyungjae Lee, Eunwoo Kim

发布时间: 2025-03-11

来源: arxiv

研究方向: 机器人任务规划与大型语言模型(LLM)

主要内容

本文提出了一种名为InversePrompt的基于逆提示的自我纠正任务规划方法,用于解决大型语言模型在机器人任务规划中生成的计划可能不准确的问题。该方法通过引入多步推理过程,对生成的计划进行验证和修正,从而提高计划的准确性和可解释性。

主要贡献

1. 提出了一种基于逆提示的自我纠正任务规划方法,名为InversePrompt。

2. 引入了多步推理过程,用于生成更全面和可解释的反馈,并显式验证生成计划的逻辑流程。

3. 在基准数据集和真实场景中进行了广泛的实验,结果表明该方法在任务完成、自我纠正和反馈生成方面优于现有的LLM-based方法。

研究方法

1. 将自然语言描述的任务目标转换为PDDL公式。

2. 使用LLM生成一系列任务计划。

3. 通过逆提示生成逆动作,并验证当前环境是否可以通过逆动作恢复到原始状态。

4. 比较逆状态和原始状态之间的差异,以生成反馈并指导重新规划过程。

实验结果

在基准数据集和真实场景中的实验结果表明,InversePrompt方法在任务完成、自我纠正和反馈生成方面优于现有的LLM-based方法。与不使用验证器的基线方法相比,InversePrompt在Ballmoving、Blocksworld和Cooking场景中分别提高了24%、30%和17.5%的成功率。与外部验证器相比,InversePrompt在所有场景和模型中平均提高了8%的成功率。与标准提示方法相比,InversePrompt在所有场景和模型中平均提高了17%的准确性。

未来工作

未来工作可以进一步探索以下方面:1)将InversePrompt方法应用于更复杂的任务规划场景;2)研究如何将InversePrompt方法与其他任务规划方法相结合;3)探索如何进一步提高InversePrompt方法的效率和准确性。