语言模型概率中的上下文简化

Research Paper#Language Models, Cognitive Science🔬 Research|分析: 2026年1月3日 18:31
发布: 2025年12月29日 18:12
1分で読める
ArXiv

分析

本文研究了在语言模型中观察概率降低所需的最小上下文,这是一个与认知科学相关的现象。它挑战了需要完整话语的假设,表明n-gram表示就足够了。这对于理解语言模型与人类认知过程的关系具有重要意义,并可能导致更有效的模型分析。
引用 / 来源
查看原文
"n-gram representations suffice as cognitive units of planning."
A
ArXiv2025年12月29日 18:12
* 根据版权法第32条进行合法引用。