摘要
一种神经网络稀疏方法,通过获取每个Transformer层中注意力模块及多层感知模块的输入输出相似度;根据模型目标稀疏度、模块预设配额比例以及每个Transformer层中注意力模块及多层感知模块的输入输出相似度,获取每个Transformer层中注意力模块及多层感知模块的模块目标稀疏度;根据每个Transformer层中注意力模块和多层感知模块的模块目标稀疏度,生成每个Transformer层中注意力模块和多层感知模块的每个权重矩阵的全局裁剪模板;根据相应的全局裁剪模板,对每个Transformer层中注意力模块和多层感知模块的权重矩阵进行权重裁剪和重构。通过一次权重剪枝将大语言模型压缩至高稀疏状态,无需重新训练,也能保持优异的性能,与sparseGPT方法相比,在高稀疏度的基准测试性能的准确度表现更优异。
技术关键词
注意力
稀疏方法
裁剪模板
矩阵
输出特征
配额
稀疏系统
电子设备
算法
模型压缩
数据获取模块
重构模块
误差
计算机
处理器
存储装置
系统为您推荐了相关专利信息
天线阵列
联合优化方法
雷达波形设计
协方差矩阵
波束
时空分布图
积水
背景噪声干扰
上下文特征
监控视频图像
病灶定位方法
图像编码器
模块
大语言模型
影像分析技术