Research#llm📝 Blog分析: 2025年12月29日 09:02

Gemini的记忆问题:用户报告上下文保留有限

发布:2025年12月29日 05:44
1分で読める
r/Bard

分析

这篇新闻来源于Reddit帖子,突显了谷歌Gemini AI模型在长时间对话中保持上下文的能力方面存在潜在问题。一位用户报告说,Gemini只记住了117,000个token的聊天记录中的最后14,000个token,这是一个很大的限制。这引发了人们对该模型是否适合需要大量上下文的任务的担忧,例如总结长文档或进行长时间的对话。用户不确定这是否是一个bug或是一个典型的限制,这突显了谷歌需要提供更清晰的关于Gemini的上下文窗口和内存管理能力的文档。需要进一步的调查和用户报告来确定这个问题的普遍性和严重性。

引用

直到我让Gemini (一个3 Pro Gem)总结我们到目前为止的对话,他们只记得最后的14k个token。在我们整个117k的聊天中。