基于有序层冻结的节能高效联邦学习

发布:2025年12月29日 04:39
1分で読める
ArXiv

分析

本文解决了物联网中资源受限边缘设备上联邦学习(FL)的挑战。 它提出了一种新方法FedOLF,通过以预定义的顺序冻结层来提高效率,从而减少计算和内存需求。 结合张量运算近似(TOA)进一步提高了能源效率并降低了通信成本。 本文的重要性在于它有可能在边缘设备上实现更实用、更具可扩展性的FL部署。

引用

FedOLF 在 EMNIST(使用 CNN)、CIFAR-10(使用 AlexNet)、CIFAR-100(使用 ResNet20 和 ResNet44)和 CINIC-10(使用 ResNet20 和 ResNet44)上分别实现了比现有工作高至少 0.3%、6.4%、5.81%、4.4%、6.27% 和 1.29% 的准确率,同时具有更高的能源效率和更低的内存占用。