自注意力机制中键值压缩方法、大语言模型及电子设备

AITNT
正文
推荐专利
自注意力机制中键值压缩方法、大语言模型及电子设备
申请号:CN202510344978
申请日期:2025-03-21
公开号:CN120106150B
公开日期:2025-10-03
类型:发明专利
摘要
本申请公开了自注意力机制中键值压缩方法、大语言模型及电子设备,涉及计算机技术领域。所述压缩方法包括对键矩阵和值矩阵分别进行多次残差分解,得到每次分解后的键残差向量和值残差向量;对每次分解后的键残差向量和值残差向量分别进行聚类压缩,并对查询矩阵、压缩后的键残差向量和值残差向量进行注意力计算;对所有注意力计算结果进行累加。本申请解决了Linear Transformer无法使用标准的Softmax Transformer参数,且与标准Softmax Transformer差异较大的问题。
技术关键词
矩阵 注意力机制 键值 大语言模型 聚类 模块 索引 前馈神经网络 电子设备 指令 位置映射 计算机程序产品 处理器 可读存储介质 文本 存储器 编码 数据
系统为您推荐了相关专利信息
1
基于多模态深度学习的喉癌早期智能诊断系统及其方法
多模态数据采集 声学特征 多模态深度学习 子模块 高维特征向量
2
基于生成对抗网络的城市局部碳排放热点预测与调控方法
时空注意力机制 矩阵 调控策略 调控方法 多尺度
3
一种大语言模型Text2SQL单表查询语句生成方法
查询语句生成方法 关键词 字段 大语言模型 查询语句生成系统
4
一种基于对抗剪枝和知识蒸馏的后门防御方法
后门 教师 学生 知识蒸馏技术 门槛
5
一种四轮转向车辆转向卡死跨系统容错控制方法
四轮转向车辆 容错控制方法 横摆角速度 跨系统 车辆动力学模型
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号