Paper#llm🔬 Research分析: 2026年1月3日 18:52

エントロピー誘導トークン・ドロップアウト:限定ドメインデータでの自己回帰言語モデルの訓練

公開:2025年12月29日 12:35
1分で読める
ArXiv

分析

この論文は、限定されたドメイン固有のデータで訓練された自己回帰言語モデルにおける過学習の問題に対処しています。低エントロピーのトークンが急速に学習され、複数エポックの訓練中に高エントロピーのトークンに対するモデルの汎化能力を妨げていることを特定しています。提案された解決策であるEntroDropは、低エントロピーのトークンを選択的にマスクする新しい正則化技術であり、モデルの性能と堅牢性を向上させます。

参照

EntroDropは、訓練中に低エントロピーのトークンを選択的にマスクし、訓練の進捗に合わせて正則化の強度を調整するカリキュラムスケジュールを採用しています。