摘要
本发明公开的一种基于资源约束的异构联邦学习优化方法及系统,包括如下步骤:通过联邦学习训练机器学习模型,服务器初始化或聚合全局模型,对客户端的训练强度进行分配,将训练强度分配到被选中参与训练的客户端;服务器通过训练深度强化学习模型分配训练中的所有客户端的总训练强度,通过确定性分配算法来分配各个参与训练的客户端的训练强度;客户端在完成本地训练后,将训练的模型参数和深度强化学习状态传到服务器,根据历史训练信息对深度强化学习模型进行更新。本发明在服务器有计算资源预算补偿的约束下,权衡联邦学习中异构设备的计算时延、通信时延、计算资源、模型收敛速度,提升训练速度,并减少计算资源预算的消耗和训练时延。
技术关键词
深度强化学习模型
客户端
学习优化方法
服务器
策略
参数
强度
模型更新
异构设备
资源
训练机器学习模型
估计算法
网络
计算机设备
时延
定义
系统为您推荐了相关专利信息
深度学习方法
边界特征
空间特征提取
语义特征提取
残差网络
多级故障诊断方法
动态决策树
电厂设备
决策树模型
设备运行数据
编排方法
卷积长短期记忆
深度强化学习
时序神经网络
策略