摘要
本申请提供一种模型训练推理方法、装置、设备、介质及程序产品,涉及人工智能技术领域。该方法包括:接收需求端发送的数据处理任务;根据数据处理任务,从多个执行端中确定目标执行端;发送数据处理任务至目标执行端;接收目标执行端发送的数据处理结果,数据处理结果是目标执行端执行数据处理任务得到的;发送数据处理结果至需求端。本申请的模型训练推理方法,通过动态分配分散的处理器资源,有效整合和利用社会闲置的处理器资源,使得模型训练推理任务能够在合适的执行端上高效完成。提高了资源的利用率和任务执行的效率,还降低了对传统数据中心和大型服务器集群的依赖,提供了一种成本更低、扩展性更强的算力解决方案。
技术关键词
推理方法
推理系统
计算机执行指令
大型服务器集群
推理装置
矩阵
可读存储介质
人工智能技术
模块
计算机程序产品
内存
处理器通信
存储器
核心
数据中心
资源
系统为您推荐了相关专利信息
密钥共享方法
计算机执行指令
密钥管理
密钥配置方法
密钥交换算法
语义层次结构
教育知识图谱
智能生成系统
数字教材
知识图谱构建
全局仿射变换
语义
计算机执行指令
场景
对齐模块
率控制方法
混合网络模型
双向长短期记忆网络
气体排放
电子控制单元执行