摘要
本发明涉及一种通信受限条件下的边云协同训练方法,属于边云协同领域。本发明融合了联邦学习和分割学习两种分布式机器学习算法,解决了传统的联邦学习因边缘设备算力限制而造成的无法训练或训练过慢的问题,能够充分利用边缘设备和云端设备的算力资源。同时模型分割后,通过对边缘设备侧特征提取器获取的中间层特征进行1bit量化操作和加噪声处理,缓解了边云协同训练时易造成的数据隐私安全问题。边缘设备侧的特征提取器无需在训练过程中进行参数更新,因此不需要进行边云之间多轮梯度的交换传输,且中间层特征经过量化操作后特征大小被极大压缩,这些都减小了边云协同训练时的通信占用,适用于通信受限的场景。
技术关键词
协同训练方法
特征提取器
中间层
受限
分布式机器学习算法
云端服务器
噪声
数据
DNN模型
预训练模型
图像缩放
场景
模型库
优化器
超参数
训练集
批量
在线