パラメトリックニューラル崩壊に基づくスケーラブルなクラス増分学習

Research Paper#Class-Incremental Learning, Neural Collapse, Knowledge Distillation🔬 Research|分析: 2026年1月4日 00:00
公開: 2025年12月26日 03:34
1分で読める
ArXiv

分析

この論文は、クラス増分学習における課題、具体的には過学習とカタストロフィック忘却に対処しています。効率的なモデル拡張と特徴ドリフトの緩和を可能にする、パラメトリックニューラル崩壊を利用した新しい方法、SCL-PNCを提案しています。この方法の主な強みは、動的ETF分類器と特徴の一貫性のための知識蒸留にあり、進化するクラス分布を持つ現実世界のシナリオでのパフォーマンスと効率の向上を目指しています。
引用・出典
原文を見る
"SCL-PNC induces the convergence of the incremental expansion model through a structured combination of the expandable backbone, adapt-layer, and the parametric ETF classifier."
A
ArXiv2025年12月26日 03:34
* 著作権法第32条に基づく適法な引用です。