摘要
本发明公开了一种面向异构数据的联邦学习模型微调方法及系统,属于人工智能技术领域,该微调方法具体步骤如下:S101:各客户端对一个随机初始化参数的深度学习模型进行本地训练,直至在在本地数据集上达到收敛标准;本发明能够缩小联邦训练的迭代轮数,减小通信成本,使本地模型在训练的前期向微调后的全局模型对齐,减小权重分歧,在训练后期减小对其参数更新的约束有利于跳出局部最优解,能够很大程度上减小隐私泄漏的风险,并且,决策层在联邦训练中通常容易受到数据异构的影响,使用每个类别的特征代表对全局决策层作微调,以很小的计算代价增强了全局模型的泛化性能。
技术关键词
面向异构数据
联邦学习模型
客户端
微调方法
服务端
深度学习模型
原型
代表
样本
微调系统
标签
正则化参数
人工智能技术
风险
决策
动态
系统为您推荐了相关专利信息
条件生成对抗网络
联邦学习方法
分类器
客户端
分类网络
施工现场
服务端
预警模块
预警模型
巷道监测技术
Stacking模型
预警方法
图像
XGBoost算法
地下水传感器