摘要
本发明基于分布式大数据压缩共享的联合模型训练方法及相关装置,属于数据通信领域。根据边云协同的应用场景特征,设计了一个具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,通过在边缘节点针对数据特征对分类任务的重要性进行数据压缩,从而保证模型精度同时减少边云带宽开支。本发明实现了对分类目标具有高可用性的压缩方法,以及可行的边云协同训练方案,并且提供了控制压缩率的方法,可以在同一个深度学习压缩自编码器中实现不同的压缩率,切换压缩率时只有极小的微调成本。与现有的边缘计算或集中式训练方法相比,本发明提供了更加灵活高效的边云联合模型训练方式,可以更好的利用云端的强大计算资源来提高模型的训练精度。
技术关键词
模型训练方法
数据压缩
分类器
云端
节点
终端
精度
还原数据
协同深度学习
可读存储介质
压缩编码器
解码器模型
模型训练装置
场景特征
计算机
解码模块