不受欢迎的观点:大型实验室完全错失了LLM的重点;Perplexity展示了可行的AI方法
分析
这篇来自r/ArtificialIntelligence的文章认为,大型AI实验室过于关注知识压缩,未能解决LLM中幻觉的根本问题。作者建议将LLM视为文本处理器,依靠实时数据和网络抓取来实现准确的输出。他们赞扬了Perplexity的搜索优先方法是一种更可行的方法,并将其与ChatGPT和Gemini效果较差的辅助搜索功能进行了对比。作者认为这种方法对于编码应用程序也更可靠,强调了基于输入数据的准确文本生成的重要性。
引用
“LLM应被严格视为文本处理器。”