基于有序层冻结的节能高效联邦学习
Research Paper#Federated Learning, Edge Computing, Deep Learning🔬 Research|分析: 2026年1月3日 19:06•
发布: 2025年12月29日 04:39
•1分で読める
•ArXiv分析
本文解决了物联网中资源受限边缘设备上联邦学习(FL)的挑战。 它提出了一种新方法FedOLF,通过以预定义的顺序冻结层来提高效率,从而减少计算和内存需求。 结合张量运算近似(TOA)进一步提高了能源效率并降低了通信成本。 本文的重要性在于它有可能在边缘设备上实现更实用、更具可扩展性的FL部署。
要点
引用 / 来源
查看原文"FedOLF achieves at least 0.3%, 6.4%, 5.81%, 4.4%, 6.27% and 1.29% higher accuracy than existing works respectively on EMNIST (with CNN), CIFAR-10 (with AlexNet), CIFAR-100 (with ResNet20 and ResNet44), and CINIC-10 (with ResNet20 and ResNet44), along with higher energy efficiency and lower memory footprint."