FLEX-MoE:面向资源受限FL的联邦混合专家模型

Paper#Federated Learning, Mixture-of-Experts, AI🔬 Research|分析: 2026年1月3日 19:16
发布: 2025年12月28日 20:32
1分で読める
ArXiv

分析

本文解决了在联邦学习 (FL) 环境中部署混合专家 (MoE) 模型的挑战,特别关注资源限制和数据异构性。主要贡献是 FLEX-MoE,一个优化专家分配和负载平衡的框架,以提高在客户端资源有限且数据分布非 IID 的 FL 设置中的性能。本文的重要性在于其在边缘设备上实现大规模条件计算模型的实用方法。
引用 / 来源
查看原文
"FLEX-MoE introduces client-expert fitness scores that quantify the expert suitability for local datasets through training feedback, and employs an optimization-based algorithm to maximize client-expert specialization while enforcing balanced expert utilization system-wide."
A
ArXiv2025年12月28日 20:32
* 根据版权法第32条进行合法引用。