摘要
本发明涉及神经网络模型压缩领域,具体公开一种基于张量分解的网络模型轻量化方法,该方法包括:获取预训练神经网络模型中子网结构内各个卷积核参数、设置网络模型中各子网结构中各层联合分解的秩、根据设置的分解秩,采用Tucker分解对网络模型中子网结构中各层进行联合分解,获得压缩的卷积核,设定优化函数,对压缩的卷积核参数进行调整,并利用调整后的压缩卷积核替换网络中原始卷积核、对调整后的压缩卷积核进行伪量化处理,并根据反向计算中的梯度对参数进行更新,得到量化后的参数,替换调整后的压缩参数,实现神经网络模型的参数压缩。整个过程旨在挖掘神经网络中子网结构的共性,在保持一定网络准确率的情况下大幅提高这类模块化设计的神经网络模型的压缩性能并降低计算复杂度。
技术关键词
轻量化方法
训练神经网络模型
网结构
参数
中子
变分贝叶斯
深度神经网络
复杂度
矩阵
系统为您推荐了相关专利信息
加密方法
三维点云模型
信息安全密码学
三维点云数据
密钥
稳态热路模型
SCADA系统
嗅探方法
电缆结构
表面温度数据
地面激光扫描仪
土壤传感器
无人机倾斜摄影
速率
合规性