摘要
本发明涉及一种基于奇异值分解的个性化联邦学习方法,用于解决设备异构性所引发系统的不确定性问题,以及现有技术中存储和传输机制导致额外负担使客户端掉队问题。首先确定了基于资源感知的客户选择策略,服务器端通过综合分析各客户端的计算资源和通信条件,建立量化评分体系。然后筛选所有在线的客户端中综合表现最优的若干客户端参与本地训练。客户端本地训练时采用结合奇异值分解方法的自知识蒸馏(SKDSVD)保留历史权重参数,分解后的残差为个性化模型参数保存在本地客户端,通用参数传输到服务器端聚合。SKDSVD算法在优化服务器端的全局模型得到最优收敛精度的同时,降低了本地客户端的训练时延和掉队率。
技术关键词
联邦学习方法
客户端设备
参数
矩阵
内存
残差模型
教师
时延
奇异值分解方法
数据
样本
蒸馏
学生
服务器
随机梯度下降
移动设备
评分机制
异构