基于参数化神经崩溃的可扩展类增量学习

发布:2025年12月26日 03:34
1分で読める
ArXiv

分析

本文解决了类增量学习的挑战,特别是过拟合和灾难性遗忘。它提出了一种新方法SCL-PNC,该方法使用参数化神经崩溃来实现高效的模型扩展并减轻特征漂移。该方法的主要优势在于其动态ETF分类器和用于特征一致性的知识蒸馏,旨在提高在具有不断变化的类分布的现实世界场景中的性能和效率。

引用

SCL-PNC通过可扩展的骨干网络、自适应层和参数化ETF分类器的结构化组合,诱导增量扩展模型的收敛。