摘要
本申请公开一种基于变分自编码器的联邦学习性能增强方法及系统,包括如下步骤:初始化变分自编码器的模型参数;构建基于变分自编码器的联邦学习优化算法,初始化神经网络模型;将数据集进行划分,为每个客户端分配训练集;使用训练集训练神经网络模型,并且在每一轮联邦学习聚合的过程中更新模型参数,并下发给客户端;客户端训练编码器参数,更新隐空间Z和解码器参数,并上传至服务器端;服务器端采用蒸馏技术将客户端的解码器作为教师模型,训练出全局解码器;使用交叉注意力机制对更新后的全局解码器进行处理;将模型参数进行加权平均,并且不断迭代完成训练;本申请在保证客户隐私的同时显著提升了整体模型框架的性能和准确率。
技术关键词
交叉注意力机制
编码器参数
客户端
训练集
更新模型参数
输出特征
蒸馏
训练神经网络模型
更新解码器
数据分布
教师
梯度下降法
模块
生成特征
系统为您推荐了相关专利信息
汽车发动机轴承
多源异构数据融合
故障诊断方法
故障诊断模型
降噪模块
药物筛选系统
关系预测模型
定量结构
抗肿瘤药物研发
分层随机抽样
图像分类模型
客户端设备
中心服务器
参数
图像分类方法
样本
文本处理方法
情感分析模型
文本分类模型
字典
动态评价系统
控制中心
历史信息数据库
客户端
访问系统资源