基于层次知识蒸馏的集群联邦学习

Research#llm🔬 Research|分析: 2026年1月4日 06:58
发布: 2025年12月11日 09:08
1分で読める
ArXiv

分析

这篇文章很可能提出了一种新的联邦学习方法,将聚类技术与知识蒸馏相结合,以提高分布式环境中模型的性能和效率。层次结构方面表明了一种结构化的知识转移方法,可能优化通信和计算成本。知识蒸馏的使用意味着试图在不同的模型或集群之间有效地压缩和转移知识。

要点

    引用 / 来源
    查看原文
    "Clustered Federated Learning with Hierarchical Knowledge Distillation"
    A
    ArXiv2025年12月11日 09:08
    * 根据版权法第32条进行合法引用。