摘要
本申请公开了一种AI算法加速方法、装置、设备和可读存储介质,方法包括:获取AI算法所处分析应用场景的分析需求,并根据所述分析需求选定匹配的AI算法初始模型并设置相应的性能目标;搭建包含微处理器单元MPU与神经网络处理单元NPU的异构计算架构;根据所述性能目标优化所述神经网络处理单元NPU的内核设计以匹配所述AI算法深度学习过程的特定计算模式;基于所述AI算法初始模型以及所述异构计算架构,构建生成AI算法加速模型。本申请根据分析应用需求自动选择AI模型并设定性能目标,同时搭建异构架构动态调配MPU与NPU资源,确保算法执行路径的最优化,显著提升了处理速度和能效比。
技术关键词
神经网络处理单元
异构计算架构
AI算法
微处理器
数据访问延迟
缓存一致性
软硬件系统
内核
加速设备
模型压缩
加速装置
场景
算法模型
操作系统
可读存储介质
程序
模式
系统为您推荐了相关专利信息
微处理器
全球用户识别模块
石英震荡器
半导体载板
核心
斑马鱼
分析系统
分析方法
分类模型训练
输出模块
智能型直流断路器
IGBT模块并联
深度强化学习算法
特征识别模块
HHT算法
能量回收一体化装置
橡胶支架
液压管路
故障报警信息
减重机构