FLEX-MoE:リソース制約のあるFLのためのFederated Mixture-of-Experts

公開:2025年12月28日 20:32
1分で読める
ArXiv

分析

この論文は、Mixture-of-Experts (MoE)モデルをフェデレーテッドラーニング(FL)環境にデプロイする際の課題、特にリソース制約とデータの異質性に焦点を当てています。主な貢献は、クライアントのリソースが限られており、データ分布が非IIDであるFL設定でパフォーマンスを向上させるために、エキスパートの割り当てと負荷分散を最適化するフレームワークであるFLEX-MoEです。この論文の重要性は、エッジデバイスでの大規模な条件付き計算モデルを可能にするための実践的なアプローチにあります。

参照

FLEX-MoEは、トレーニングフィードバックを通じてローカルデータセットに対するエキスパートの適合性を定量化するクライアントエキスパート適合度スコアを導入し、システム全体でバランスの取れたエキスパート利用を徹底しながら、クライアントエキスパートの専門化を最大化する最適化ベースのアルゴリズムを採用しています。