面向边缘计算的联邦学习协同训练收敛加速方法

AITNT
正文
推荐专利
面向边缘计算的联邦学习协同训练收敛加速方法
申请号:CN202510372562
申请日期:2025-03-27
公开号:CN120373417A
公开日期:2025-07-25
类型:发明专利
摘要
本发明公开了面向边缘计算的联邦学习协同训练收敛加速方法,涉及联邦学习协同训练技术领域,包括以下步骤:利用采集设备以及测量软件,采集边缘设备数据和中心服务器数据,采用强化学习、马尔科夫决策和随机森林算法,构建基于马尔科夫决策的强化学习模型,结合Q‑learning算法、遗传算法、函数逼近器和神经网络算法,构建深度强化模型,利用Bagging算法,融合基于马尔科夫决策的强化学习模型和深度强化模型,本发明所述方法中的边缘计算网关采集技术、Zabbix软件采集技术、遗传算法优化模型技术和Bagging模型融合技术与现代信息技术紧密结合,解决了边缘设备样本数据量存在差异、边缘设备异构和边缘设备网络异构的问题。
技术关键词
中心服务器 随机森林模型 强化学习模型 强化学习代理 样本 神经网络模型 加权平均法 异构数据系统 神经网络算法 生成对抗网络 决策 计算中心 超参数 训练集数据 函数逼近器 采集设备 遗传算法
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号