動的語彙剪定による安定したLLM強化学習

Paper#llm🔬 Research|分析: 2026年1月3日 19:14
公開: 2025年12月28日 21:44
1分で読める
ArXiv

分析

この論文は、大規模言語モデル(LLM)の強化学習(RL)における不安定性の問題に取り組み、特にトークン確率分布のテール部分における、トレーニングと推論の確率分布のミスマッチが原因であると指摘しています。著者は、確率の低いトークンがこのミスマッチに大きく貢献し、勾配推定を不安定にすることを発見しました。彼らの提案する解決策である動的語彙剪定は、語彙の極端なテール部分を除外することにより、この問題を軽減し、より安定したトレーニングを実現します。
引用・出典
原文を見る
"The authors propose constraining the RL objective to a dynamically-pruned ``safe'' vocabulary that excludes the extreme tail."
A
ArXiv2025年12月28日 21:44
* 著作権法第32条に基づく適法な引用です。