恭喜实验室博士生武楚涵等同学的文章被Nature Communications录用!
[1] Wu, C., Wu, F., Lyu, L., Huang, Y., & Xie, X. (2022). Communication-efficient federated learning via knowledge distillation. Nature communications, 13(1), 2032.
点击跳转文章原文
本文提出了一种基于知识蒸馏的去中心化学习框架,以降低联邦学习中的通信开销。能够以不到十分之一的通信开销,实现与中心化训练大模型相近的性能。