機能認識ニューロングルーピングによるLLM剪定の汎化性能向上

Paper#llm🔬 Research|分析: 2026年1月3日 19:20
公開: 2025年12月28日 17:26
1分で読める
ArXiv

分析

本論文は、大規模言語モデル(LLM)の事後訓練構造化剪定における汎化性能の限界という課題に取り組んでいます。キャリブレーションバイアスを軽減し、ダウンストリームタスクの精度を向上させるための新しいフレームワーク、Function-Aware Neuron Grouping(FANG)を提案しています。その中核となるアイデアは、ニューロンをその機能的な役割に基づいてグループ化し、個別に剪定することであり、グループの機能と相関するトークンに高い重みを与えます。機能的な複雑さに基づいた適応的なスパース性の割り当ても重要な貢献です。結果は既存の方法よりも改善されたパフォーマンスを示しており、これはLLM圧縮の分野への貴重な貢献となっています。
引用・出典
原文を見る
"FANG outperforms FLAP and OBC by 1.5%--8.5% in average accuracy under 30% and 40% sparsity."
A
ArXiv2025年12月28日 17:26
* 著作権法第32条に基づく適法な引用です。