基于L0约束的联邦学习用于稀疏性
Research Paper#Federated Learning, Sparsity, L0 Constraint, Probabilistic Gates🔬 Research|分析: 2026年1月3日 19:16•
发布: 2025年12月28日 20:33
•1分で読める
•ArXiv分析
本文解决了联邦学习(FL)中由于数据和模型固有的稀疏性,尤其是在异构条件下,导致的模型密度过高和泛化能力差的问题。它提出了一种新方法,使用概率门及其连续松弛来对模型的非零参数施加L0约束。该方法旨在实现参数的目标密度(rho),从而提高FL中的通信效率和统计性能。