摘要
本发明实施例提供了一种基于通信数据压缩的联邦学习方法、电子设备及存储介质,涉及联邦学习技术领域。方法包括:在客户端节点,采用本地训练数据集对更新后的本地模型进行训练,得到更新梯度,将更新梯度中绝对值最大的若干个分量的序号写入第二有序列表;基于下发的第一有序列表和所述第二有序列表确定序号,将该序号和/或该序号在更新梯度对应的分量写入第三有序列表;将该第三有序列表上传。在服务器节点,根据第三有序列表中的序号和分量生成该客户端节点对应的更新梯度;将更新梯度聚合后生成全局模型更新梯度,结合更新动量和模型参数对全局模型进行更新。本发明提供的实施方式降低了联邦学习场景下网络传输的数据量和网络通信延时。
技术关键词
联邦学习方法
数据压缩
客户端
服务器节点
模型更新
联邦学习系统
参数
联邦学习技术
元素
处理器
电子设备
指令
计算机程序产品
存储器
网络通信
可读存储介质
变量
系统为您推荐了相关专利信息
温度智能控制方法
精细化工反应釜
模型更新
轨迹参数
阶段
网络异常检测
长短期记忆网络
深度神经网络
编码器
预测时间序列数据
文件系统
压缩算法
计算机电子设备
数据完整性验证
校验信息
语音欺骗检测
交叉注意力机制
集成方法
融合分类器
子系统