摘要
本申请实施例提供了一种模型执行方法、装置、电子设备及存储介质,涉及计算机技术领域。该方法包括:将第一模型的输入信息、各第二模型以及各第二模型的执行顺序分别存储至内存空间;向NPU发送输入信息、各第二模型以及执行顺序的空间地址,以使NPU根据内存空间地址从内存空间中读取输入信息和执行顺序,根据执行顺序和各第二模型的内存空间地址依次从读取各第二模型并得到输出,将最后一个第二模型的输出作为处理结果。通过上述过程,使得NPU每次只读取一部分模型的模型参数进行处理,最终完成整个模型的执行,解决了当NPU一次性能读取的数据量小于整个神经网络模型的模型参数的数据量时无法执行该神经网络模型的问题。
技术关键词
神经网络处理器
参数
神经网络模型
执行装置
逻辑
数据
电子设备
标记
中央处理器
存储模块
可读存储介质
存储器
计算机