摘要
本发明公开一种车云协同中基于模型压缩和知识蒸馏的DNN推理加速方法,包括以下步骤:1)建立车云协同计算系统,包括云端服务器和车载终端设备;2)基于车载终端设备资源限制,在云端服务器上对预训练的DNN模型进行压缩;3)在云端服务器上,对压缩后的DNN模型进行蒸馏;4)以总推理延迟最短为目标,对蒸馏后的DNN模型进行分割,得到第一DNN模型和第二DNN模型,并将第一DNN模型部署在车载终端设备上,将第二DNN模型部署在云端服务器;5)执行DNN推理。本发明综合考虑了不同的车载终端任务对准确率及推理时延的要求,将DNN模型进行压缩并分区部署在车载终端设备和云端服务器上,进一步提高了DNN推理的速度。
技术关键词
车载终端设备
云端服务器
模型压缩
DNN模型
蒸馏
网络
参数
策略
因子
时延
模块
通道
资源
分区
批量
负担
计算机
代表
算法
系统为您推荐了相关专利信息
衣物处理单元
语音控制方法
生成控制命令
音频
语音控制装置
车辆内部人员
多媒体系统
破窗系统
解锁
车载通信系统
浮点数
配置搜索空间
模型压缩方法
网络模块
通道
智能听诊系统
建筑设备
设备状态数据
特征提取模块
蒸馏