ChatGPT 5.2在对话线程中表现出重复行为Research#llm🏛️ Official|分析: 2025年12月26日 19:56•发布: 2025年12月26日 19:48•1分で読める•r/OpenAI分析这篇OpenAI subreddit上的帖子强调了ChatGPT 5.2中增强的上下文感知能力的一个潜在缺点。虽然改进的上下文通常是有益的,但用户报告说,该模型不必要地重复线程中先前问题的答案,导致浪费令牌和时间。这表明需要改进模型管理和利用对话历史的方式。用户的观察提出了关于当前实现的效率和成本效益的问题,并引发了关于减轻这种重复行为的潜在解决方案的讨论。它还突出了大型语言模型中平衡上下文感知与高效资源利用的持续挑战。要点•ChatGPT 5.2可能在对话线程中表现出重复行为。•增加的上下文感知能力可能导致低效的令牌使用。•用户正在寻求减轻这种重复的解决方案。引用 / 来源查看原文"I'm assuming the repeat is because of some increased model context to chat history, which is on the whole a good thing, but this repetition is a waste of time/tokens."Rr/OpenAI2025年12月26日 19:48* 根据版权法第32条进行合法引用。较旧[P] S2ID: Scale Invariant Image Diffuser - trained on standard MNIST, generates 1024x1024 digits and at arbitrary aspect ratios with almost no artifacts at 6.1M parameters较新Tensor Logic "Unifies" AI Paradigms相关分析Research人类AI检测2026年1月4日 05:47Research侧重于实现的深度学习书籍2026年1月4日 05:49Research个性化 Gemini2026年1月4日 05:49来源: r/OpenAI