LLM与检索:何时应该承认无知Paper#llm🔬 Research|分析: 2026年1月3日 16:58•发布: 2025年12月29日 19:59•1分で読める•ArXiv分析本文探讨了检索增强生成中的一个关键问题:大型语言模型(LLM)在面对信息不足时,倾向于给出错误答案,而不是承认无知。自适应提示策略提供了一种有前景的方法来缓解这个问题,平衡了扩展上下文的优势和无关信息的缺点。 关注提高LLM拒绝请求的能力是对该领域的重要贡献。要点•LLM 在检索增强问答中难以承认无知。•自适应提示,将检索到的信息分割成块,可以提高性能。•增强 LLM 拒绝请求的能力对于准确性至关重要。引用 / 来源查看原文"The LLM often generates incorrect answers instead of declining to respond, which constitutes a major source of error."AArXiv2025年12月29日 19:59* 根据版权法第32条进行合法引用。较旧We're creating a new top-level product group at Meta focused on generative AI较新Protecting customers with generative AI indemnification相关分析Paper从未对齐图像即时进行3D场景编辑2026年1月3日 06:10Paper基于选择策略的协调人形机器人操作2026年1月3日 06:10Paper用于未来预测的LLM预测2026年1月3日 06:10来源: ArXiv