LLMの一般化:推論の細粒度分析

公開:2025年12月30日 08:16
1分で読める
ArXiv

分析

本論文は、異なるファインチューニング手法(SFT vs. RL)がLLMの一般化行動に異なる結果をもたらす理由という重要な問題に取り組んでいます。単純な精度指標を超え、推論をコアな認知スキルに分解する新しいベンチマークを導入しています。これにより、これらのスキルがトレーニング中にどのように出現し、転移し、劣化するかをより詳細に理解できます。低レベルの統計パターンに焦点を当てることで分析がさらに強化され、LLMの一般化の背後にあるメカニズムに関する貴重な洞察が得られ、より効果的なトレーニング戦略を設計するためのガイダンスが提供されます。

参照

RL調整モデルは、より安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗しますが、SFTモデルは、より急激なドリフトを示し、表面パターンに過剰適合します。