摘要
本发明属于联邦学习的技术领域,更具体地,涉及一种基于模型分层优化的保隐私个性化联邦学习方法。所述方法包括每个客户端获取服务器端的全局模型,使用自端的训练数据集更新本地模型,然后对本地模型进行分层优化,确定每一个客户端待上传的部分模型参数;对每个客户端待上传的部分模型参数进行裁剪,并引入差分隐私噪声,然后发送至服务器端;服务器端按照每个客户端数据量的大小为各个客户端分配权重,然后将各个客户端上传的模型参数进行聚合得到新的全局模型并发送至各个客户端;重复S1~S3至达到设置的训练轮次或收敛。本发明解决了在保障用户隐私的同时提高联邦学习中异构性带来的模型性能影响和通信效率的问题。
技术关键词
客户端
联邦学习方法
分层
参数
差分隐私
联邦学习模型
随机梯度下降
可读存储介质
服务端
噪声方差
处理器
通信效率
模型更新
计算机
样本
数据
异构
存储器
代表
系统为您推荐了相关专利信息
电力控制装置
变流器
FPGA芯片
监控功能模块
Linux系统
动态避障路径规划方法
能源补给站
节点
障碍物
地图框架
复杂度
因子
回归预测模型
游戏设备
监督学习算法
知识图谱构建方法
配电网故障
多模态
波动特征
配电网运行数据
模型训练方法
文本生成方法
样本
文本生成装置
模型训练装置