基于L0约束的联邦学习用于稀疏性

Research Paper#Federated Learning, Sparsity, L0 Constraint, Probabilistic Gates🔬 Research|分析: 2026年1月3日 19:16
发布: 2025年12月28日 20:33
1分で読める
ArXiv

分析

本文解决了联邦学习(FL)中由于数据和模型固有的稀疏性,尤其是在异构条件下,导致的模型密度过高和泛化能力差的问题。它提出了一种新方法,使用概率门及其连续松弛来对模型的非零参数施加L0约束。该方法旨在实现参数的目标密度(rho),从而提高FL中的通信效率和统计性能。
引用 / 来源
查看原文
"The paper demonstrates that the target density (rho) of parameters can be achieved in FL, under data and client participation heterogeneity, with minimal loss in statistical performance."
A
ArXiv2025年12月28日 20:33
* 根据版权法第32条进行合法引用。