LLMの一般化:推論の細粒度分析
Research Paper#Large Language Models (LLMs), Generalization, Reasoning, Fine-tuning🔬 Research|分析: 2026年1月3日 16:50•
公開: 2025年12月30日 08:16
•1分で読める
•ArXiv分析
本論文は、異なるファインチューニング手法(SFT vs. RL)がLLMの一般化行動に異なる結果をもたらす理由という重要な問題に取り組んでいます。単純な精度指標を超え、推論をコアな認知スキルに分解する新しいベンチマークを導入しています。これにより、これらのスキルがトレーニング中にどのように出現し、転移し、劣化するかをより詳細に理解できます。低レベルの統計パターンに焦点を当てることで分析がさらに強化され、LLMの一般化の背後にあるメカニズムに関する貴重な洞察が得られ、より効果的なトレーニング戦略を設計するためのガイダンスが提供されます。