分析
清华大学的一个团队对大型语言模型 (LLM) 如何生成“幻觉”做出了一个令人着迷的发现。他们确定了一种称为 H-神经元的特定类型的神经元,这是理解这种行为的关键。这项研究为提高 LLM 的可靠性和性能提供了令人兴奋的新途径,为更值得信赖的生成式人工智能铺平了道路。
关于hallucination的新闻、研究和更新。由AI引擎自动整理。
"Futurism 证实,康泰纳仕 (Condé Nast) 旗下的 Ars Technica 在其发表和撤回一篇包含生成式人工智能虚构引用的文章后,解雇了高级生成式人工智能记者 Benj Edwards。"
"关于它们的识别,我们证明,一小组(少于总神经元的0.1%)神经元可以可靠地预测幻觉的发生,并且在各种场景中具有很强的泛化性。"