摘要
本发明公开了多终端设备数据分布不均衡下的联邦学习收敛加速方法,涉及多终端设备的联邦学习收敛加速技术领域,包括以下步骤:利用网络探针采集每个终端设备样本的实时数据量,通过Zabbix软件采集中心服务器数据的调度时间戳和更新全局模型时间戳,根据终端设备样本的数据量等级,分配终端设备大样本和组合样本的训练策略,根据中心服务器等待延迟时间,选择全局模型更新方式,本发明所述方法中的网络探针采集技术、Zabbix软件采集技术、数据增强技术、生成对抗网络技术和随机森林算法与Bagging算法融合技术与现代信息技术紧密结合,显著增强了多终端设备的联邦学习收敛加速方法过程中的智能化程度。
技术关键词
中心服务器
终端设备
样本
数据分布
加权平均法
模型更新
异构数据系统
任务分配模型
生成对抗网络
超参数
随机森林模型
计算中心
训练集数据
策略
传播算法
神经网络参数