GPT-4 中的非确定性由 Sparse MoE 引起

Research#llm👥 Community|分析: 2026年1月3日 06:23
发布: 2023年8月4日 21:37
1分で読める
Hacker News

分析

这篇文章声称 GPT-4 的非确定性行为是由于其 Sparse Mixture of Experts (MoE) 架构造成的。这表明即使输入相同,模型的输出也会有所不同,这可能是由于专家选择的概率性质或专家本身固有的随机性。这是一个重要的观察结果,因为它影响了 GPT-4 输出的可重复性和可靠性。
引用 / 来源
查看原文
"Non-determinism in GPT-4 is caused by Sparse MoE"
H
Hacker News2023年8月4日 21:37
* 根据版权法第32条进行合法引用。