分析
本文展示了一种改进大型语言模型(LLM)在规划任务中的新方法。它侧重于内在的自我批判,即LLM在不依赖外部验证器的情况下批判自己的答案。研究表明,在Blocksworld、Logistics和Mini-grid等规划基准测试中,性能得到了显著提升,超过了强大的基线。该方法侧重于内在的自我改进,这是一个关键贡献,表明其适用于不同的LLM版本,并可能通过更复杂的搜索技术和更强大的模型带来进一步的进步。
引用
“本文展示了通过内在的自我批判,在Blocksworld领域的规划数据集上取得了显著的性能提升,而无需外部来源,例如验证器。”