基于参数化神经崩溃的可扩展类增量学习

Research Paper#Class-Incremental Learning, Neural Collapse, Knowledge Distillation🔬 Research|分析: 2026年1月4日 00:00
发布: 2025年12月26日 03:34
1分で読める
ArXiv

分析

本文解决了类增量学习的挑战,特别是过拟合和灾难性遗忘。它提出了一种新方法SCL-PNC,该方法使用参数化神经崩溃来实现高效的模型扩展并减轻特征漂移。该方法的主要优势在于其动态ETF分类器和用于特征一致性的知识蒸馏,旨在提高在具有不断变化的类分布的现实世界场景中的性能和效率。
引用 / 来源
查看原文
"SCL-PNC induces the convergence of the incremental expansion model through a structured combination of the expandable backbone, adapt-layer, and the parametric ETF classifier."
A
ArXiv2025年12月26日 03:34
* 根据版权法第32条进行合法引用。