摘要
本发明实施例提供了一种基于通信数据压缩的联邦学习方法、电子设备及存储介质,涉及联邦学习技术领域。方法包括:在客户端节点,采用本地训练数据集对更新后的本地模型进行训练,得到更新梯度,将更新梯度中绝对值最大的若干个分量的序号写入第二有序列表;基于下发的第一有序列表和所述第二有序列表确定序号,将该序号和/或该序号在更新梯度对应的分量写入第三有序列表;将该第三有序列表上传。在服务器节点,根据第三有序列表中的序号和分量生成该客户端节点对应的更新梯度;将更新梯度聚合后生成全局模型更新梯度,结合更新动量和模型参数对全局模型进行更新。本发明提供的实施方式降低了联邦学习场景下网络传输的数据量和网络通信延时。
技术关键词
联邦学习方法
数据压缩
客户端
服务器节点
模型更新
联邦学习系统
参数
联邦学习技术
元素
处理器
电子设备
指令
计算机程序产品
存储器
网络通信
可读存储介质
变量
系统为您推荐了相关专利信息
认证机制
认证服务器
虚拟客户端设备
服务器集群
交换机
服装设计方法
图片
三维人体模型
服装设计装置
客户端
数据分布
客户端
策略学习方法
深度强化学习算法
卷积神经网络提取
车体坐标系
多传感器数据融合
激光雷达
RGBD相机
笛卡尔