摘要
本申请实施例提供一种模型训练方法、装置、存储介质及计算机设备,包括:在模型训练中,先获取任一个NPU频率调控的调控延迟,多个NPU顺序处理多批次任务。接着将调控延迟与调控延迟阈值对比,得到比较结果。若调控延迟大于阈值,就让每个NPU依次处理多批次任务,且在前向传播阶段对至少一个NPU处理的至少一批次任务降频。要是调控延迟小于或等于阈值,在模型训练的前向传播阶段,仍让每个NPU依次处理多批次任务;到反向传播阶段,则控制每个NPU间隔处理多批次任务。同时,在前向和反向传播阶段,都对至少一个NPU处理的至少一批次任务进行降频。这种根据NPU频率调控延迟在模型训练不同阶段自适应降频的方式,能有效提高能效。
技术关键词
神经网络处理器
模型训练方法
阶段
速率
功耗
降频单元
高频率
计算机设备
模型训练装置
脚本
电压
可读存储介质
电容
指令
存储器
能效