摘要
本发明涉及人工智能技术领域,公开了一种基于多层次注意力的自我回顾知识蒸馏方法、系统及终端。该方法利用学生模型和收敛后的教师模型,分别对样本集中的样本图片进行预测处理;获取教师模型和学生模型在每个处理阶段输出的特征图,据此计算教师模型和学生模型在每个处理阶段的注意力图。将学生模型在每个处理阶段的注意力图与前一处理阶段的注意力图进行特征融合,计算多层级注意力蒸馏损失。计算标准交叉熵损失和基本蒸馏损失;将三种损失加权得到总训练损失,据此进行梯度下降和反向传播,从而优化学生模型参数,随后利用样本集下一批次的样本图片对学习模型进行持续优化,直至学生模型收敛。本发明可有效提高学生模型的准确率。
技术关键词
注意力
知识蒸馏方法
学生
教师
阶段
多层次
样本
图片
层级
处理单元
融合特征
计算机终端
蒸馏系统
人工智能技术
模块
标签
处理器
存储器
参数
系统为您推荐了相关专利信息
图像分割方法
编码器模块
注意力
感知损失函数
动态
融合调度方法
融合通信平台
动态路径规划方法
多模态数据融合
多源交通数据
细胞系
转录因子
基因表达特征
交互注意力
模型训练方法
单目深度估计
深度图
定位方法
井下作业环境
实例分割网络