通过自批判增强LLM规划能力Paper#llm🔬 Research|分析: 2026年1月3日 17:03•发布: 2025年12月30日 09:23•1分で読める•ArXiv分析本文展示了一种改进大型语言模型(LLM)在规划任务中的新方法。它侧重于内在的自我批判,即LLM在不依赖外部验证器的情况下批判自己的答案。研究表明,在Blocksworld、Logistics和Mini-grid等规划基准测试中,性能得到了显著提升,超过了强大的基线。该方法侧重于内在的自我改进,这是一个关键贡献,表明其适用于不同的LLM版本,并可能通过更复杂的搜索技术和更强大的模型带来进一步的进步。要点•LLM可以通过内在的自我批判来提高规划性能。•该方法在所考虑的模型上实现了最先进的结果。•该方法适用于不同的LLM版本。•迭代的修正和改进进一步增强了性能。引用 / 来源查看原文"The paper demonstrates significant performance gains on planning datasets in the Blocksworld domain through intrinsic self-critique, without external source such as a verifier."AArXiv2025年12月30日 09:23* 根据版权法第32条进行合法引用。较旧RflyUT-Sim: A Simulation Platform for Development and Testing of Complex Low-Altitude Traffic Control较新Show HN: Blotter – An interactive, never ending music video相关分析Paper从未对齐图像即时进行3D场景编辑2026年1月3日 06:10Paper基于选择策略的协调人形机器人操作2026年1月3日 06:10Paper用于未来预测的LLM预测2026年1月3日 06:10来源: ArXiv