摘要
本申请公开了自注意力机制中键值压缩方法、大语言模型及电子设备,涉及计算机技术领域。所述压缩方法包括对键矩阵和值矩阵分别进行多次残差分解,得到每次分解后的键残差向量和值残差向量;对每次分解后的键残差向量和值残差向量分别进行聚类压缩,并对查询矩阵、压缩后的键残差向量和值残差向量进行注意力计算;对所有注意力计算结果进行累加。本申请解决了Linear Transformer无法使用标准的Softmax Transformer参数,且与标准Softmax Transformer差异较大的问题。
技术关键词
矩阵
注意力机制
键值
大语言模型
聚类
模块
索引
前馈神经网络
电子设备
指令
位置映射
计算机程序产品
处理器
可读存储介质
文本
存储器
编码
数据
系统为您推荐了相关专利信息
多模态数据采集
声学特征
多模态深度学习
子模块
高维特征向量
查询语句生成方法
关键词
字段
大语言模型
查询语句生成系统
四轮转向车辆
容错控制方法
横摆角速度
跨系统
车辆动力学模型