摘要
本发明涉及人工智能硬件平台中智能集成电路、智能芯片、AI芯片;人工智能通用技术中深度神经网络、多层神经网络、卷积神经网络等领域,尤其涉及一种大语言模型加速器。本发明大语言模型运算节点包括:至少1个计算单元和第一存储单元,两者位于同一设计架构内,其中:计算单元,用于进行计算;第一存储单元,用于驻留大语言模型运算过程中的静态权重数据;第二存储单元,设置于设计结构的外部,用于存储大语言模型运算过程中KV cache数据。本发明有效避免了传统外存静态权重数据读取所带来的高功耗和高延迟问题,相比于传统的HBM方案,本发明在性能功耗和成本上均具有明显优势。
技术关键词
存储单元
大语言模型
加速器
集群
节点
矩阵
切片
动态
智能集成电路
接口
处理单元
板卡
并行作业
数据存储
深度神经网络
对话系统
智能芯片
硬件平台
系统为您推荐了相关专利信息
搜索方法
Petri网模型
资源库
演化规则
Dijkstra算法
网络仿真工具
任务调度
节点
负载均衡策略
工业互联网
蛋白互作网络
分类器模型
数据处理装置
生物物种
基因
有限元建模方法
结构有限元模型
蒙皮
应力计算方法
机身结构