パラメトリックニューラル崩壊に基づくスケーラブルなクラス増分学習

公開:2025年12月26日 03:34
1分で読める
ArXiv

分析

この論文は、クラス増分学習における課題、具体的には過学習とカタストロフィック忘却に対処しています。効率的なモデル拡張と特徴ドリフトの緩和を可能にする、パラメトリックニューラル崩壊を利用した新しい方法、SCL-PNCを提案しています。この方法の主な強みは、動的ETF分類器と特徴の一貫性のための知識蒸留にあり、進化するクラス分布を持つ現実世界のシナリオでのパフォーマンスと効率の向上を目指しています。

参照

SCL-PNCは、拡張可能なバックボーン、アダプト層、およびパラメトリックETF分類器の構造化された組み合わせを通じて、増分拡張モデルの収束を誘導します。