research#llm📝 Blog分析: 2026年1月29日 05:45LLM 记忆力测试:揭示上下文保留的极限发布:2026年1月29日 03:37•1分で読める•Zenn LLM分析这项研究深入探讨了在大语言模型 (LLM) 中保持指令遵循的迷人挑战。通过测试上下文窗口的极限,它为如何改进这些模型以获得更可靠的性能提供了宝贵的见解。这项研究侧重于分解 LLM 行为,为未来的发展提供了令人兴奋的机会。要点•该研究通过测试 LLM 遵循简单指令(无项目符号)的能力来调查其短期记忆的极限。•实验表明,LLM 在参与无关对话后,对规则的遵守程度有所下降。•该研究表明,为了持续遵守,将规则存储在文件中而不是仅仅依赖提示的重要性。引用 / 来源查看原文"本文的主要发现(TL;DR):在进行了大约 10 轮的随意对话后,禁止使用项目符号的规则开始失效。"ZZenn LLM2026年1月29日 03:37* 根据版权法第32条进行合法引用。较旧Code Consistency Achieved: LLMs Follow Rules Through Style Mimicry!较新Supercharge LLM Development: Reducing API Costs with Local LLMs相关分析research人工智能的惊人崛起:追溯智力谱系到牛顿!2026年2月9日 17:32research真实世界机器人操控:机器人操作中的缩放定律出现2026年2月9日 17:32research人工智能的势头:加速生产力的新时代2026年2月9日 17:02来源: Zenn LLM