ChatGPT的记忆之谜:新漏洞揭示潜在数据泄露research#llm🏛️ Official|分析: 2026年2月24日 16:32•发布: 2026年2月24日 13:09•1分で読める•r/OpenAI分析这一发现突出了生成式人工智能模型如何处理和保留信息的一个有趣方面。大型语言模型 (LLM) 能够回忆指定项目范围之外的数据,这引发了人们对这些先进系统背后的架构和机制的好奇心。 这为探索 LLM 中记忆和上下文的边界开辟了令人兴奋的机会。要点•ChatGPT 可能会访问其预期项目范围之外的信息。•即使启用了“仅限项目”的内存,该错误似乎仍然存在。•此行为可能表明存在潜在的数据泄漏漏洞。引用 / 来源查看原文"在该新项目中,询问ChatGPT你之前告诉它的名字。 它应该重复你告诉它的内容,即使它不应该知道。"Rr/OpenAI2026年2月24日 13:09* 根据版权法第32条进行合法引用。较旧Boosting Chinese Generative AI with Synthetic Data: A New Frontier较新AMD and Meta Forge Ahead: Massive GPU Powerhouse for AI相关分析researchOpenClaw 的 AgentS.md:塑造 AI 的存在与社会融合2026年2月24日 09:15research利用合成数据增强中国生成式人工智能:新前沿2026年2月24日 16:17research面向工程学学生的AI助手:寻找完美的学习伙伴2026年2月24日 16:02来源: r/OpenAI