摘要
本发明属于深度学习编译器领域,公开了一种面向DL编译器的预量化模型部署方法,包括步骤1:前端框架解析器解析前端预量化的深度学习模型,输出包含Q算子的图;步骤2:进行面向Target,即目标平台的图切分操作,该操作之后,图将被分割为两部分:加速器支持的算子将在加速器上运行,加速器不支持的算子将在CPU上运行;步骤3:DL编译器将针对两部分采用不同的调度和代码生成,并采用两级,即函数级和算子级加速器代码生成器来产生加速器硬件指令和驱动函数。本发明支持面向加速器的切图功能,既能够完成Q算子到普通算子的降级,又能够使加速器子函数的输入输出格式满足硬件要求。
技术关键词
加速器
模型部署方法
子模块
代码生成器
列表
深度学习模型
指令
解析器
标志
模式匹配
内存
数据
内核
标记
元素
平台
框架
三角形
系统为您推荐了相关专利信息
智能语义分析
数据识别模型
数据识别方法
语义图谱
节点
智能小车循迹
送货系统
智能避让
动力驱动模块
主控单元
麻醉深度评估
生命体征数据
多模态
噪声样本
脉搏血氧饱和度