分析
这篇新闻来源于Reddit帖子,突显了谷歌Gemini AI模型在长时间对话中保持上下文的能力方面存在潜在问题。一位用户报告说,Gemini只记住了117,000个token的聊天记录中的最后14,000个token,这是一个很大的限制。这引发了人们对该模型是否适合需要大量上下文的任务的担忧,例如总结长文档或进行长时间的对话。用户不确定这是否是一个bug或是一个典型的限制,这突显了谷歌需要提供更清晰的关于Gemini的上下文窗口和内存管理能力的文档。需要进一步的调查和用户报告来确定这个问题的普遍性和严重性。
引用
“直到我让Gemini (一个3 Pro Gem)总结我们到目前为止的对话,他们只记得最后的14k个token。在我们整个117k的聊天中。”