摘要
本申请公开了一种基于边缘设备的大模型运行方法、装置、设备及介质,涉及人工智能技术领域,包括:对待运行大模型进行预处理,并基于边缘设备的硬件特性对预处理后的待运行大模型进行优化;基于当前边缘设备的资源情况,确定优化后模型对应的待执行任务的任务优先级;根据任务优先级将待执行任务分配至预先搭建的模型协同运行框架中,并在分配的过程中,对待执行任务进行分析,以根据分析结果将待执行任务部署至模型协同运行框架的负载均衡节点上;利用预设数据缓存管理算法对相关参数数据进行管理,以将相关参数数据中待使用数据预加载至边缘设备中,以便优化后模型通过模型协同运行框架的负载均衡节点,基于待使用数据执行相应的待执行任务。
技术关键词
负载均衡节点
模型运行方法
数据缓存管理
现场可编程门阵列
框架
图形处理器
数据访问
服务器
云端
数据管理模块
稀疏训练方法
参数
批量数据
频率
知识蒸馏技术
单指令多数据
数据缓存单元
资源分配
系统为您推荐了相关专利信息
弹性调度方法
智能仓储
混合整数规划
救援机器人
决策
组装特征
泛化方法
风格
规范化技术
数据处理模型
分布式训练方法
时间序列预测模型
强化学习框架
策略控制器
时效性