摘要
本发明实施例中提供了一种基于相互知识转移的联邦学习优化方法,属于计算技术领域,具体包括:存储大模型对应的数据集;在中央服务器通过知识蒸馏将大模型的知识迁移至蒸馏后的学生模型上;将学生模型下发给联邦系统的本地客户端;得到本轮训练后的一代本地模型;通过相互知识转移技术得到该本地客户端本轮训练的二代本地模型;服务器将本地客户端上传的模型进行模型聚合,得到本轮训练的全局模型;将上一轮训练后的全局模型再次下发给联邦系统的各个本地客户端,本地客户端再次利用本地数据集训练本轮的本地模型,进行迭代训练,直至最后一轮训练完成后的全局模型收敛,结束训练过程。通过本发明的方案,提高了模型性能、泛化能力和安全性。
技术关键词
客户端
学习优化方法
联邦学习系统
学生
服务器
蒸馏
数据
表达式
样本
标签
元素
网络
教师
算法
误差
速率
参数
系统为您推荐了相关专利信息
受保护
客户端
终端设备
数据识别模型
文件属性信息