動的語彙剪定による安定したLLM強化学習Paper#llm🔬 Research|分析: 2026年1月3日 19:14•公開: 2025年12月28日 21:44•1分で読める•ArXiv分析この論文は、大規模言語モデル(LLM)の強化学習(RL)における不安定性の問題に取り組み、特にトークン確率分布のテール部分における、トレーニングと推論の確率分布のミスマッチが原因であると指摘しています。著者は、確率の低いトークンがこのミスマッチに大きく貢献し、勾配推定を不安定にすることを発見しました。彼らの提案する解決策である動的語彙剪定は、語彙の極端なテール部分を除外することにより、この問題を軽減し、より安定したトレーニングを実現します。重要ポイント•LLM RLにおけるトレーニングと推論のミスマッチ問題に対処。•トークン確率分布のテール部分を不安定性の主要な原因として特定。•トレーニングを安定化するための解決策として、動的語彙剪定を提案。•剪定によって導入される最適化バイアスに関する理論的な境界を提供。引用・出典原文を見る"The authors propose constraining the RL objective to a dynamically-pruned ``safe'' vocabulary that excludes the extreme tail."AArXiv2025年12月28日 21:44* 著作権法第32条に基づく適法な引用です。古い記事Hypergraph Semantics for Doxastic Logics新しい記事Phase transition revealed by eigen microstate entropy関連分析Paper選択ポリシーを用いた協調型人型ロボット操作2026年1月3日 06:10Paper未ポーズ画像からの即時3Dシーン編集2026年1月3日 06:10Paper将来予測のためのLLMフォアキャスティング2026年1月3日 06:10原文: ArXiv