摘要
本发明提供了一种基于ShapDiv的自适应加权联邦学习方法,涉及联邦学习技术领域,该方法将Shapley Value与KL Divergence结合应用于联邦学习,融合Shapley Value与KL Divergence提出了新的评估贡献度的指标值,即Shapley Value与KL Divergence启发的ShapDiv度量值,并设计了结合用户ShapDiv的激励机制,通过ShapDiv的激励机制公平地为每个客户端匹配对应其贡献的奖励与惩罚,在该机制下将FL训练视为序列合作博弈,并根据客户的ShapDiv进行加权的联邦聚合,既解决联邦学习中的公平性问题同时也提高了联邦学习的准确率。本发明不仅能够提高模型的准确性和鲁棒性,还能够激励参与方更积极地合作,进而提升整个联邦学习系统的效率和性能。
技术关键词
客户端
联邦学习方法
模型更新
联邦学习系统
联邦学习技术
参数
服务器更新
定义
数据
基础
鲁棒性
度量
策略
机制
序列
速率
资源
精度
系统为您推荐了相关专利信息
溯源数据
数据溯源方法
星际文件系统
标识管理设备
服务器
软件开发项目
软件工作量
多层感知器
指标
软件项目管理
网络拓扑结构
网络探针
网络流量数据
团伙识别
融合特征
共享充电宝柜机
存储机构
回收机构
人机交互界面显示
电子标签