摘要
本申请公开了一种基于通信网络的联邦学习方法,包括:在任一节点侧,在该节点的任一待学习神经网络模型的任一轮次训练阶段,当该待学习神经网络模型的模型参数的当前累计更新次数不为第一间隔次数的整数倍以及第二间隔次数的整数倍时,在本节点进行本地训练,当前累计更新次数为第一间隔次数的整数倍且不为第二间隔次数的整数倍时,该节点模型参数进行融合,得到用于表征邻居共识的模型参数,当前累计更新次数为第二间隔次数的整数倍时,该节点获取聚合模型参数,得到用于表征全局聚合的模型参数,基于所得到的模型参数进行下一次更新并累计更新次数,直至当前累计更新次数达到更新次数阈值。本申请提高了神经网络模型的性能。
技术关键词
神经网络模型
联邦学习方法
节点
通信网络
参数
邻居
批量数据
计算机存储介质
学习装置
联邦学习系统
元素
矩阵
通信设备
阶段
模块
服务器
处理器
基础
系统为您推荐了相关专利信息
电网故障诊断方法
混合网络
GCN模型
空间拓扑结构
电网拓扑结构
复合绝缘子
陶瓷绝缘子
自动检测方法
制冷红外热像仪
循环神经网络模型
深度神经网络模型
缺陷控制方法
CCD相机
闭环控制器
分类网络